899 resultados para Computacional Intelligence in Medecine
Resumo:
Possibilistic answer set programming (PASP) unites answer set programming (ASP) and possibilistic logic (PL) by associating certainty values with rules. The resulting framework allows to combine both non-monotonic reasoning and reasoning under uncertainty in a single framework. While PASP has been well-studied for possibilistic definite and possibilistic normal programs, we argue that the current semantics of possibilistic disjunctive programs are not entirely satisfactory. The problem is twofold. First, the treatment of negation-as-failure in existing approaches follows an all-or-nothing scheme that is hard to match with the graded notion of proof underlying PASP. Second, we advocate that the notion of disjunction can be interpreted in several ways. In particular, in addition to the view of ordinary ASP where disjunctions are used to induce a non-deterministic choice, the possibilistic setting naturally leads to a more epistemic view of disjunction. In this paper, we propose a semantics for possibilistic disjunctive programs, discussing both views on disjunction. Extending our earlier work, we interpret such programs as sets of constraints on possibility distributions, whose least specific solutions correspond to answer sets.
Resumo:
We study the computational complexity of finding maximum a posteriori configurations in Bayesian networks whose probabilities are specified by logical formulas. This approach leads to a fine grained study in which local information such as context-sensitive independence and determinism can be considered. It also allows us to characterize more precisely the jump from tractability to NP-hardness and beyond, and to consider the complexity introduced by evidence alone.
Resumo:
Inferences in directed acyclic graphs associated with probability intervals and sets of probabilities are NP-hard, even for polytrees. We propose: 1) an improvement on Tessem’s A/R algorithm for inferences on polytrees associated with probability intervals; 2) a new algorithm for approximate inferences based on local search; 3) branch-and-bound algorithms that combine the previous techniques. The first two algorithms produce complementary approximate solutions, while branch-and-bound procedures can generate either exact or approximate solutions. We report improvements on existing techniques for inference with probability sets and intervals, in some cases reducing computational effort by several orders of magnitude.
Resumo:
Background Despite Human Papillomavirus (HPV)’s impact on the health of both sexes, there is debate around the inclusion of males in HPV vaccination programmes. The aim of this scoping review was to synthesize the evidence on vaccine acceptability to males. Given that the vaccine is most effective in adolescent males, vaccine acceptance in parents and health care professionals (HCPs) was also examined. Method A rapid synthesis using specified key words of published systematic reviews into vaccine acceptability in adolescent males, parents and HCPs was conducted. The most common electronic databases were searched including: Medline, EMBASE, PsychINFO, and CINAHL. Results There was variability amongst studies with respect to design and methodological approaches. Despite this there appears to be a positive attitude towards male HPV vaccination from both parents and older males. There is currently insufficient evidence on vaccine acceptance to adolescent males. Understanding the risks involved in HPV acquisition, and receiving a recommendation from a HCP, appear to be the major factors involved in males deciding to be vaccinated. Parents consistently report the importance of a HCP recommendation, yet HCPs (in the US) appear to have a preference for vaccinating older than younger adolescents, and for vaccinating females. Conclusions The absence of an agreed definition of vaccine acceptance leads to a lack of a universally accepted tool for its measurement. This makes comparison of studies difficult. With no established theoretical framework the identification and exploration of factors that influence vaccine uptake can be variable. In addition, acceptance is not indicative of uptake. The majority of studies are cross-sectional which makes the identification of factors that lead to actual vaccine uptake difficult. Prospective, longitudinal studies identifying individuals that acted on vaccine intention should be conducted to identify the factors that mediate the uptake.
Resumo:
Um dos maiores avanços científicos do século XX foi o desenvolvimento de tecnologia que permite a sequenciação de genomas em larga escala. Contudo, a informação produzida pela sequenciação não explica por si só a sua estrutura primária, evolução e seu funcionamento. Para esse fim novas áreas como a biologia molecular, a genética e a bioinformática são usadas para estudar as diversas propriedades e funcionamento dos genomas. Com este trabalho estamos particularmente interessados em perceber detalhadamente a descodificação do genoma efectuada no ribossoma e extrair as regras gerais através da análise da estrutura primária do genoma, nomeadamente o contexto de codões e a distribuição dos codões. Estas regras estão pouco estudadas e entendidas, não se sabendo se poderão ser obtidas através de estatística e ferramentas bioinfomáticas. Os métodos tradicionais para estudar a distribuição dos codões no genoma e seu contexto não providenciam as ferramentas necessárias para estudar estas propriedades à escala genómica. As tabelas de contagens com as distribuições de codões, assim como métricas absolutas, estão actualmente disponíveis em bases de dados. Diversas aplicações para caracterizar as sequências genéticas estão também disponíveis. No entanto, outros tipos de abordagens a nível estatístico e outros métodos de visualização de informação estavam claramente em falta. No presente trabalho foram desenvolvidos métodos matemáticos e computacionais para a análise do contexto de codões e também para identificar zonas onde as repetições de codões ocorrem. Novas formas de visualização de informação foram também desenvolvidas para permitir a interpretação da informação obtida. As ferramentas estatísticas inseridas no modelo, como o clustering, análise residual, índices de adaptação dos codões revelaram-se importantes para caracterizar as sequências codificantes de alguns genomas. O objectivo final é que a informação obtida permita identificar as regras gerais que governam o contexto de codões em qualquer genoma.
Resumo:
A utilização combinada de espectroscopia vibracional e de cálculos envolvendo a teoria do funcional de densidade (DFT) possibilita o estudo de ligações de hidrogénio em fase condensada, assim como a análise da estrutura molecular dos sistemas em estudo. Por um lado, a espectroscopia vibracional permite a detecção de associações moleculares, enquanto os métodos computacionais auxiliam na obtenção de informação referente aos mecanismos de associação, nomeadamente no que diz respeito à possível estrutura de dímeros e compostos de inclusão em ciclodextrinas e às energias de interacção e de inclusão. O estudo que originou a presente dissertação pretende contribuir para o reforço da aplicação de estudos espectroscópicos e computacionais na elucidação de diversos fenómenos químicos, com especial destaque para o papel desempenhado por interacções intermoleculares fracas na estrutura e propriedades de materiais moleculares. No âmbito desta tese foram investigados os seguintes tópicos: polimorfismo e pseudopolimorfismo em sólidos farmacêuticos, transições de fase em misturas binárias de ácidos gordos, inclusão em ciclodextrinas, interacção de compostos farmacêuticos com superfícies metálicas e formação de agregados de água em materiais híbridos orgânicos-inorgânicos. Os sistemas foram analisados utilizando a espectroscopia vibracional – particularmente a espectroscopia de difusão de Raman – como técnica fundamental. Para uma melhor caracterização de processos envolvendo transições de fase, foram efectuados estudos com variação de temperatura, variação de humidade relativa e substituição isotópica. O estudo da interacção com superfícies metálicas foi realizado por espectroscopia de Raman intensificada à superfície. Dada a complexidade dos sistemas em estudo, a informação obtida por espectroscopia vibracional foi complementada por resultados de cálculos mecânico-quânticos. Em particular, os cálculos DFT foram utilizados para a optimização de geometrias e previsão de frequências vibracionais de moléculas e associações moleculares, permitindo assim a análise e interpretação de espectros vibracionais e a caracterização da estrutura de materiais.
Resumo:
Do ponto de vista da política económica, existe a possibilidade de utilizar a receita dos impostos ambientais para baixar os impostos sobre o trabalho, promovendo assim o emprego. Esta oportunidade surge na literatura como forma dos países industrializados responderem a um duplo desafio: um crescente nível de poluição e um decrescente nível de emprego. Alguns países tomaram já decisões no sentido de alcançar o “duplo dividendo”: melhorias ambientais e diminuição do desemprego. Os resultados teóricos, na sua maioria cépticos em relação à verificação do segundo dividendo, são substancialmente contrariados por uma série de estudos que utilizam modelos de equilíbrio geral. Pretendese com este trabalho fazer uma simulação para a economia portuguesa de uma reforma fiscal ambiental com as características referidas e a verificação da existência do “duplo dividendo”, através de um modelo computacional de equilíbrio geral. Para além disso, é feita uma análise dos impactos do Mercado Europeu de Licenças de Emissão, ao nível sectorial e regional, em Portugal, utilizando dados microeconómicos, com o objectivo de estudar as consequências ao nível das trasacções entre sectores e efeitos distributivos entre regiões.
Resumo:
A distribui ção de um sinal relógio, com elevada precisão espacial (baixo skew) e temporal (baixo jitter ), em sistemas sí ncronos de alta velocidade tem-se revelado uma tarefa cada vez mais demorada e complexa devido ao escalonamento da tecnologia. Com a diminuição das dimensões dos dispositivos e a integração crescente de mais funcionalidades nos Circuitos Integrados (CIs), a precisão associada as transições do sinal de relógio tem sido cada vez mais afectada por varia ções de processo, tensão e temperatura. Esta tese aborda o problema da incerteza de rel ogio em CIs de alta velocidade, com o objetivo de determinar os limites do paradigma de desenho sí ncrono. Na prossecu ção deste objectivo principal, esta tese propõe quatro novos modelos de incerteza com âmbitos de aplicação diferentes. O primeiro modelo permite estimar a incerteza introduzida por um inversor est atico CMOS, com base em parâmetros simples e su cientemente gen éricos para que possa ser usado na previsão das limitações temporais de circuitos mais complexos, mesmo na fase inicial do projeto. O segundo modelo, permite estimar a incerteza em repetidores com liga ções RC e assim otimizar o dimensionamento da rede de distribui ção de relógio, com baixo esfor ço computacional. O terceiro modelo permite estimar a acumula ção de incerteza em cascatas de repetidores. Uma vez que este modelo tem em considera ção a correla ção entre fontes de ruí do, e especialmente util para promover t ecnicas de distribui ção de rel ogio e de alimentação que possam minimizar a acumulação de incerteza. O quarto modelo permite estimar a incerteza temporal em sistemas com m ultiplos dom ínios de sincronismo. Este modelo pode ser facilmente incorporado numa ferramenta autom atica para determinar a melhor topologia para uma determinada aplicação ou para avaliar a tolerância do sistema ao ru ído de alimentação. Finalmente, usando os modelos propostos, são discutidas as tendências da precisão de rel ogio. Conclui-se que os limites da precisão do rel ogio são, em ultima an alise, impostos por fontes de varia ção dinâmica que se preveem crescentes na actual l ogica de escalonamento dos dispositivos. Assim sendo, esta tese defende a procura de solu ções em outros ní veis de abstração, que não apenas o ní vel f sico, que possam contribuir para o aumento de desempenho dos CIs e que tenham um menor impacto nos pressupostos do paradigma de desenho sí ncrono.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
For the past decades it has been a worldwide concern to reduce the emission of harmful gases released during the combustion of fossil fuels. This goal has been addressed through the reduction of sulfur-containing compounds, and the replacement of fossil fuels by biofuels, such as bioethanol, produced in large scale from biomass. For this purpose, a new class of solvents, the Ionic Liquids (ILs), has been applied, aiming at developing new processes and replacing common organic solvents in the current processes. ILs can be composed by a large number of different combinations of cations and anions, which confer unique but desired properties to ILs. The ability of fine-tuning the properties of ILs to meet the requirements of a specific application range by mixing different cations and anions arises as the most relevant aspect for rendering ILs so attractive to researchers. Nonetheless, due to the huge number of possible combinations between the ions it is required the use of cheap predictive approaches for anticipating how they will act in a given situation. Molecular dynamics (MD) simulation is a statistical mechanics computational approach, based on Newton’s equations of motion, which can be used to study macroscopic systems at the atomic level, through the prediction of their properties, and other structural information. In the case of ILs, MD simulations have been extensively applied. The slow dynamics associated to ILs constitutes a challenge for their correct description that requires improvements and developments of existent force fields, as well as larger computational efforts (longer times of simulation). The present document reports studies based on MD simulations devoted to disclose the mechanisms of interaction established by ILs in systems representative of fuel and biofuels streams, and at biomass pre-treatment process. Hence, MD simulations were used to evaluate different systems composed of ILs and thiophene, benzene, water, ethanol and also glucose molecules. For the latter molecules, it was carried out a study aiming to ascertain the performance of a recently proposed force field (GROMOS 56ACARBO) to reproduce the dynamic behavior of such molecules in aqueous solution. The results here reported reveal that the interactions established by ILs are dependent on the individual characteristics of each IL. Generally, the polar character of ILs is deterministic in their propensity to interact with the other molecules. Although it is unquestionable the advantage of using MD simulations, it is necessary to recognize the need for improvements and developments of force fields, not only for a successful description of ILs, but also for other relevant compounds such as the carbohydrates.
Resumo:
Bioorganic ferroelectrics and piezoelectrics are becoming increasingly important in view of their intrinsic compatibility with biological environment and biofunctionality combined with strong piezoelectric effect and switchable polarization at room temperature. Here we study piezoelectricity and ferroelectricity in the smallest amino acid glycine, representing a broad class of non-centrosymmetric amino acids. Glycine is one of the basic and important elements in biology, as it serves as a building block for proteins. Three polymorphic forms with different physical properties are possible in glycine (α, β and γ), Of special interest for various applications are non-centrosymmetric polymorphs: β-glycine and γ-glycine. The most useful β-polymorph being ferroelectric took much less attention than the other due to its instability under ambient conditions. In this work, we could grow stable microcrystals of β-glycine by the evaporation of aqueous solution on a (111)Pt/Ti/SiO2/Si substrate as a template. The effects of the solution concentration and Pt-assisted nucleation on the crystal growth and phase evolution were characterized by X-ray diffraction analysis and Raman spectroscopy. In addition, spin-coating technique was used for the fabrication of highly aligned nano-islands of β-glycine with regular orientation of the crystallographic axes relative the underlying substrate (Pt). Further we study both as-grown and tip-induced domain structures and polarization switching in the β-glycine molecular systems by Piezoresponse Force Microscopy (PFM) and compare the results with molecular modeling and computer simulations. We show that β-glycine is indeed a room-temperature ferroelectric and polarization can be switched by applying a bias to non-polar cuts via a conducting tip of atomic force microscope (AFM). Dynamics of these in-plane domains is studied as a function of applied voltage and pulse duration. The domain shape is dictated by both internal and external polarization screening mediated by defects and topographic features. Thermodynamic theory is applied to explain the domain propagation induced by the AFM tip. Our findings suggest that β-glycine is a uniaxial ferroelectric with the properties controlled by the charged domain walls which in turn can be manipulated by external bias. Besides, nonlinear optical properties of β-glycine were investigated by a second harmonic generation (SHG) method. SHG method confirmed that the 2-fold symmetry is preserved in as-grown crystals, thus reflecting the expected P21 symmetry of the β-phase. Spontaneous polarization direction is found to be parallel to the monoclinic [010] axis and directed along the crystal length. These data are confirmed by computational molecular modeling. Optical measurements revealed also relatively high values of the nonlinear optical susceptibility (50% greater than in the z-cut quartz). The potential of using stable β-glycine crystals in various applications are discussed in this work.
Resumo:
It is necessary to transform the educative experiences into the classrooms so that they favor the development of intellectual abilities of children and teenagers. We must take advantage of the new opportunities that offer information technologies to organize learning environments which they favor those experiences. We considered that to arm and to program robots, of the type of LEGO Mind Storms or the so called “crickets”, developed by M. Resnik from MIT, like means so that they children them and young people live experiences that favor the development of their intellectual abilities, is a powerful alternative to the traditional educative systems. They are these three tasks those that require a reflective work from pedagogy and epistemology urgently. Robotics could become in the proper instrument for the development of intelligence because it works like a mirror for the intellectual processes of each individual, its abilities like epistemologist and, therefore, is useful to favor those processes in the classroom.
Resumo:
The Centre for Intelligent Systems (CIS) is a multidisciplinary research and development centre, founded in 2001, in a very young university, the University of Algarve, in the south of Portugal. The centr's mission is to promote fundamental research in Computational Intelligence (CI) methodology.
Resumo:
Im Rahmen der Globalisierung und des daraus resultierenden Wettbewerbs ist es für ein Unternehmen von zentraler Bedeutung, Wissen über die Wettbewerbssituation zu erhalten. Nicht nur zur Erschließung neuer Märkte, sondern auch zur Sicherung der Unternehmensexistenz ist eine Wettbewerbsanalyse unabdingbar. Konkurrenz- bzw. Wettbewerbsforschung wird überwiegend als „Competitive Intelligence“ bezeichnet. In diesem Sinne beschäftigt sich die vorliegende Bachelorarbeit mit einem Bereich von Competitive Intelligence. Nach der theoretischen Einführung in das Thema werden die Ergebnisse von neun Experteninterviews sowie einer schriftlichen Expertenbefragung innerhalb des Unternehmens erläutert. Die Experteninterviews und -befragungen zum Thema Competitive Intelligence dienten zur Entwicklung eines neuen Wettbewerbsanalysekonzeptes. Die Experteninterviews zeigten, dass in dem Unternehmen kein einheitliches Wettbewerbsanalysesystem existiert und Analysen lediglich ab hoc getätigt werden. Zusätzlich wird ein Länderranking vorgestellt, das zur Analyse europäischer Länder für das Unternehmen entwickelt wurde. Die Ergebnisse zeigten, dass Dänemark und Italien für eine Ausweitung der Exportgeschäfte bedeutend sind. Der neu entwickelte Mitbewerberbewertungsbogen wurde auf Grundlage dieser Ergebnisse für Dänemark und Italien getestet.
Resumo:
Der vorliegende Artikel bezieht sich auf die unterschiedlichen Begrifflichkeiten, die im Umfeld der Wettbewerberforschung in der Literatur Verwendung finden. Neben den Begriffen des angloamerikanischen Sprachraums (Competitive Intelligence, Competitor Intelligence und Competitor Analyse) existieren für den deutschsprachigen Raum (Wettbewerber-, Konkurrenten-, Wettbewerbs- und Konkurrenzanalyse) ebenfalls verschiedenartige Begriffe, denen in der Literatur eine häufig unterschiedliche Verwendung zu Teil wird. Dieser Artikel baut einen Ordnungsansatz auf, der die angesprochenen Begrifflichkeiten in eine Struktur bringt, um somit eine klare inhaltliche Trennung der einzelnen Begriffe sowie eine in Relation bringende Darstellung aufbauen zu können. Dies ermöglicht eine ambiguitätsfreie Verwendung innerhalb der wissenschaftlichen Arbeit durch definitorisch fixierte Begriffsinhalte.