977 resultados para instersection computation
Resumo:
In this paper a new method for self-localization of mobile robots, based on a PCA positioning sensor to operate in unstructured environments, is proposed and experimentally validated. The proposed PCA extension is able to perform the eigenvectors computation from a set of signals corrupted by missing data. The sensor package considered in this work contains a 2D depth sensor pointed upwards to the ceiling, providing depth images with missing data. The positioning sensor obtained is then integrated in a Linear Parameter Varying mobile robot model to obtain a self-localization system, based on linear Kalman filters, with globally stable position error estimates. A study consisting in adding synthetic random corrupted data to the captured depth images revealed that this extended PCA technique is able to reconstruct the signals, with improved accuracy. The self-localization system obtained is assessed in unstructured environments and the methodologies are validated even in the case of varying illumination conditions.
Resumo:
In this paper we study a model for HIV and TB coinfection. We consider the integer order and the fractional order versions of the model. Let α∈[0.78,1.0] be the order of the fractional derivative, then the integer order model is obtained for α=1.0. The model includes vertical transmission for HIV and treatment for both diseases. We compute the reproduction number of the integer order model and HIV and TB submodels, and the stability of the disease free equilibrium. We sketch the bifurcation diagrams of the integer order model, for variation of the average number of sexual partners per person and per unit time, and the tuberculosis transmission rate. We analyze numerical results of the fractional order model for different values of α, including α=1. The results show distinct types of transients, for variation of α. Moreover, we speculate, from observation of the numerical results, that the order of the fractional derivative may behave as a bifurcation parameter for the model. We conclude that the dynamics of the integer and the fractional order versions of the model are very rich and that together these versions may provide a better understanding of the dynamics of HIV and TB coinfection.
Resumo:
This paper is part of the Project “Adaptive thinking and flexible computation: Critical issues”. It discusses what is meant by adaptive thinking and presents the results of individual interviews with four pupils. The main goal of the study is to understand pupils’ reasoning when solving numerical tasks involving additive situations, and identify features associated with adaptive thinking. The results show that, in the case of first grade pupils, the semantic aspects of the problem are involved in its resolution and the pupils’ performance appears to be related to the development of number sense. The 2nd grade pupils seem to see the quantitative difference as an invariant numerical relationship.
Resumo:
In this article we provide homotopy solutions of a cancer nonlinear model describing the dynamics of tumor cells in interaction with healthy and effector immune cells. We apply a semi-analytic technique for solving strongly nonlinear systems – the Step Homotopy Analysis Method (SHAM). This algorithm, based on a modification of the standard homotopy analysis method (HAM), allows to obtain a one-parameter family of explicit series solutions. By using the homotopy solutions, we first investigate the dynamical effect of the activation of the effector immune cells in the deterministic dynamics, showing that an increased activation makes the system to enter into chaotic dynamics via a period-doubling bifurcation scenario. Then, by adding demographic stochasticity into the homotopy solutions, we show, as a difference from the deterministic dynamics, that an increased activation of the immune cells facilitates cancer clearance involving tumor cells extinction and healthy cells persistence. Our results highlight the importance of therapies activating the effector immune cells at early stages of cancer progression.
Resumo:
The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.
Resumo:
Trabalho de Dissertação de Natureza Científica para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização em Estruturas
Resumo:
International Journal of Algebra and Computation, 15, nº 3 (2005), p. 547-570
Resumo:
RESUMO: As concentrações circulantes de cálcio são notavelmente constantes a despeito das variações diárias na absorção intestinal e na eliminação renal deste elemento. A regulação da calcémia é um sistema complexo que compreende vários factores controladores (a calcémia, a fosforémia, as concentrações circulantes de paratormona (PTH) e calcitriol além de muitos outros factores como hormonas esteróides em geral, outros iões como o magnésio e outros factores hormonais) e vários órgãos alvo (glândulas paratiroideias, osso, rim e intestino). As respostas dos órgãos alvo também são muito variadas. No caso mais simples, a cristalização de sais de cálcio corresponde a uma mudança de fase em que participam moléculas orgânicas que a iniciam, aceleram ou inibem. Em geral a combinação de um factor controlador com o respectivo receptor de membrana (para polipeptídeos ou iões) ou intracelular (hormonas esteróides) é apenas o primeiro passo de uma cadeia bioquímica que introduz uma enorme amplificação na resposta. A esta variedade de mecanismos de resposta correspondem grandes diferenças nos tempos de resposta que podem ser de minutos a semanas. É hoje possível “observar” (medir) com apreciável rigor nos líquidos biológicos (sangue, urina, fezes, etc.) os factores mais importantes do sistema de regulação da calcémia (cálcio, fósforo, paratormona e calcitriol) assim como administrar estes factores em experiências agudas. Esta possibilidade reflecte – se na literatura neste campo que tem vindo a crescer. O advento das técnicas da biologia molecular tem permitido a caracterização molecular de algumas das disfunções da homeostase do cálcio e é de esperar um diagnóstico fisiopatológico cada vez mais rigoroso dessas disfunções. Com o avanço dos conhecimentos nesta área que não cessa de aumentar temos cada vez maiores capacidades para fazer diagnósticos e é cada vez mais difícil interpretar com rigor os correspondentes quadros metabólicos. A análise ou síntese de sistemas complexos é a actividade mais nobre dos engenheiros que lhes permite desenhar pontes, diques, barcos, aviões ou automóveis. Com o aparecimento de computadores de médio ou grande porte foi – lhes possível utilizar descrições matemáticas não só para desenhar sistemas como ainda para interpretar eventuais falhas na sua operação. Essas descrições matemáticas consistem numa sequência de operações realizadas num computador segundo um “programa informático” que receberam a designação genérica de modelos, por analogia com as famosas leis (equações) da física que foram deduzidas a partir de um certo número de postulados e que permitem representar matematicamente processos físicos. As famosas leis de Newton são talvez os exemplos mais famosos de “modelos” de sistemas físicos. A introdução de modelos matemáticos em biologia e particularmente em medicina só se deu recentemente.MÉTODOS No trabalho que aqui se apresenta construiu - se um modelo simplificado da homeostase do cálcio destinado ao cálculo de variáveis observáveis (concentrações de cálcio, fósforo, PTH e calcitriol) de modo a poderem comparar-se valores calculados com valores observados. A escolha dos componentes do modelo foi determinada pela nossa experiência clínica e pela informação fisiopatológica e clínica publicada. Houve a preocupação de construir o modelo de forma modular de modo a ser possível a sua expansão sem grandes transformações na descrição matemática (e informática) já existente. Na sua fase actual o modelo não pode ser usado como instrumento de diagnóstico. É antes uma ferramenta destinada a esclarecer “em princípio” mecanismos fisiopatológicos. Usou – se o modelo para simular um certo número de observações publicadas e para exemplificar a sua eventual aplicação clínica na simulação de situações hipotéticas e na análise de possíveis mecanismos fisiopatológicos responsáveis por situações de hipo ou hipercalcémias. Simultaneamente fez – se uma análise dos dados acumulados relativos a doentes vistos no Serviço de Endocrinologia do Instituto Português de Oncologia de Francisco Gentil – Centro Regional Oncológico de Lisboa, S.A. CONCLUSÕES Numa população de 894 doentes com patologias variadas do Instituto Português de Oncologia de Lisboa os valores da calcémia tiveram uma distribuição normal unimodal com uma média de 9.56 mg/dl, e um erro padrão de 0.41 mg/dl. Estas observações sugerem que a calcémia está sujeita a regulação. A partir dos resultados publicados em que o metabolismo do cálcio foi perturbado por infusões de cálcio, calcitriol ou PTH, de estudos bioquímicos e fisiológicos sobre os mecanismos de acção de factores controladores da calcémia e do estudo do comportamento de órgãos alvo (paratiroideias, intestino, osso e rim) foi possível construir um modelo matemático de parâmetros concentrados do sistema de regulação da calcémia. As expressões analíticas usadas foram baseadas na cinética enzimática de modo a que os seus parâmetros tivessem um significado físico ou fisiológico simples. O modelo revelou apreciável robustez e flexibilidade. É estável quando não perturbado e transita entre estados estacionários quando perturbado. Na sua forma actual gera simulações que reproduzem satisfatoriamente um número apreciável de dados experimentais colhidos em doentes. Isto não significa que possa ser usado como instrumento de diagnóstico aplicável a doentes individuais. O desenho do modelo comporta a adição posterior de novas relações quando surgirem situações para as quais se revele insuficiente. A utilização exaustiva do modelo permitiu explicitar aspectos do metabolismo do cálcio que ou não estão contidas na sua formulação actual – o aparecimento de hipertrofia ou de adenomas das paratiroideias e as alterações na estrutura óssea , a participação de outros factores controladores – magnésio, ou estão insuficientemente descritas – alterações do metabolismo do fósforo nos hipoparatiroidismos. A análise dos dados relativos aos doentes do Serviço de Endocrinologia do IPO permitiu o início da caracterização dos tipos de patologia que representam e de possíveis mecanismos fisiopatológicos subjacentes. Estas observações são o ponto de partida para análises futuras. São exemplos das relações encontradas: a distribuição dos doentes por dois grandes grupos conforme a calcémia é determinada pelas concentrações circulantes de PTH ou estas são determinadas pela calcémia; a distribuição sazonal das concentrações de Vit. D25. no sangue; a correlação negativa entre estas e as concentrações de PTH no sangue. Também foi possível extrair a cinética do controlo da PTH sobre a síntese de calcitriol. O estudo dos níveis circulantes de PTH no pós-operatório imediato de doentes paratiroidectomizados permitiu determinar as suas taxas de degradação metabólica. O modelo permitiu simular as relações Ca/PTH no sangue, Ca/Fracção excretada da carga tubular, Ca/P no sangue para valores normais ou altos de Ca. Foram feitas simulações de situações fisiopatológicas (em “doentes virtuais”): infusões crónicas de cálcio, PTH e calcitriol; alterações no comportamento de receptores. Estas simulações correspondem a experiências que não podem ser realizadas em humanos. São exemplos da utilização do modelo na exploração de possíveis mecanismos fisiopatológicos através da observação de resultados quantitativos inacessíveis à intuição. O modelo foi útil em duas fases do trabalho: Primeiro, durante a sua síntese implicou uma escolha criticamente selectiva de informação, sua análise quantitativa e processamento, uma explicitação rigorosa (analítica) das relações funcionais entre os controladores e as variáveis e da sua integração numa estrutura global; Segundo, a simulação de situações experimentais ou clínicas (dados do Serviço de Endocrinologia do IPO) em doentes obrigou a explicitar raciocínios fisiopatológicos habitualmente formulados em bases puramente intuitivas. Esta prática revelou comportamentos óbvios após as simulações – acção reduzida das infusões PTH (simulação de hiperparatiroidismos primários) enquanto não há inibição total da respectiva secreção, necessidade de aumento da massa secretora da paratiroideia nas insuficiências renais avançadas, etc. A síntese e utilização do modelo não implicaram uma preparação matemática avançada e foram possíveis mercê da disponibilidade de “software” interactivo especificamente desenhado para a simulação de sistemas dinâmicos em que os programas se escrevem em inglês usando a simbologia simples da álgebra elementar. A função nobre de modelos desta natureza é semelhante à dos modelos usados pelos físicos desde o século XVII: permitir explicações de carácter geral funcionando como uma ferramenta intelectual para manipulação de conceitos e para a realização de “experiências pensadas” (“thought experiments”) respeitando certos princípios físicos (princípios de conservação) que estabelecem as fronteiras da realidade. -------ABSTRACT: Calcium blood levels are remarkably constant despite great variations in calcium daily intake, intestinal absorption and renal excretion. The regulation of the calcium concentration in the blood is achieved by a complex system that includes several controller factors (mainly the serum levels of calcium, phosphorus, parathyroid hormone (PTH) and calcitriol but also of steroid hormones, ions such as magnesium and other hormonal factors) and several target organs (parathyroid glands, bone, kidney and intestine). The functional response to the controlling factors obeys a variety of kinetics. The precipitation of calcium salts is a simple phase transition in which organic molecules may provide nucleation centres or inhibit the process. The combination of a controller factor with its receptor located in the cell membrane (for peptides or ions) or in the nucleus (for steroid hormones) is only the first step of a biochemical chain that introduces a huge amplification in the response. To this great variability of response we have to add the times of response that vary from minutes to weeks. It is possible to “observe” (measure) with great accuracy in biological fluids (blood, urine, faeces, etc.) the most important factors intervening in the calcium regulation (calcium, phosphorus, PTH and calcitriol). The response of the system to acute infusions of the controlling factors has also been studied. Using molecular biology techniques it has been possible to characterize some calcium homeostasis dysfunctions and better physiopathological diagnosis are expected. With the increasingly new knowledge in this area we have better capacity to diagnose but it is harder to explain correctly the underlying metabolic mechanisms. The analysis or synthesis of complex systems is the noble activity of engineers that enables them to draw bridges, dams, boats, airplanes or cars. With the availability of medium-large frame computers it was possible to use mathematical descriptions not only to draw systems but also to explain flaws in its operations. These mathematical descriptions are generally known as models by analogy with the laws (equations) of physics that allow the mathematical description of physical processes. In practice it is not possible to find general solutions for the mathematical descriptions of complex systems but (numeric) computations for specific situations can be obtained with digital computers. The introduction of mathematical models in biology and particularly in medicine is a recent event. METHODS In this thesis a simplified model of calcium homeostasis was built that enables the computation of observable variables (concentrations of calcium, phosphorus, PTH and calcitriol) and allows the comparison between the simulation values and observed values. The choice of the model’s components was made according to our clinical experience and to the published clinical and physiopathological data. The model has a modular design that allows future expansions with minor alterations in its structure. In its present form the model cannot be used for diagnosis. It is a tool designed to enlighten physiopathological processes. To exemplify its possible clinical application in the simulation of hypothetical situations and in the analysis of possible mechanisms responsible for hypo or hypercalcemias the model was used to simulate a certain number of published observations. An analysis of clinical and laboratory data from the Endocrinology Department of the Portuguese Cancer Institute (I.P.O.F.G.-C.R.O.L.,S.A.) is also presented. CONCLUSIONS In a population of 188 patients without an identifiable disease of the calcium metabolism at the Portuguese Cancer Institute the calcemia levels had a unimodal distribution with an average of 9.56 mg/dL and a S.E.M of 0.41 mg/dL. This observation confirms that serum calcium is regulated. Using published data; in which calcium metabolism was disrupted by calcium, PTH or calcitriol infusions; from biochemical and physiological studies of the action of controller factors on the calcemia; in which the response of target organs (parathyroid glands, intestine, bone, kidney) was studied it was possible to build a mathematical model of concentrated parameters of the calcium homeostasis. Analytical expressions used were based on enzymatic kinetics. The model is flexible and robust. It is stable when not disturbed and changes between steady states when disturbed. In its present form it provides simulations that reproduce closely a number of experimental clinical data. This does not mean that it can be used as a diagnostic tool for individual patients. The exhaustive utilisation of the model revealed the need of future expansions to include aspects of the calcium metabolism not included in its present form –hypertrophy or adenomas of the parathyroid glands, bone structure changes, participation of other controller factors such as magnesium – or insufficiently described – phosphate metabolism in hypoparathyroidism. The analysis of the data collected from the I.P.O.’s Endocrinology Department allowed the initial characterization of the different pathologies represented and of their possible physiopathological mechanisms. These observations are a starting point for future analysis. As examples of the relations found were: the distribution of patients in two groups according to the dependency of calcium by PTH levels or PTH levels by calcium concentration; the seasonal distribution of the serum concentrations of D25; its negative correlation with PTH concentration. It was also possible to extract the kinetics of the control of the synthesis of calcitriol by PTH. The analysis of immediate post-surgical levels of PTH in parathyroidectomized patients allowed the determination of its metabolic clearance. The model also allowed the simulation of the relations between Ca/PTH in blood, serum Ca/Fraction of tubular load excreted and Ca/P in blood for normal and high values of calcium. Simulations were made of pathological situations (in “virtual patients”): chronic infusions of calcium, PTH and calcitriol; changes in the characteristics of receptors. These simulations are not possible in real persons. They are an example of the use of this model in exploring possible mechanisms of disease through the observation of quantitative results not accessible to simple intuition. This model was useful in two phases: Firstly, its construction required a careful choice of data, its quantitative analysis and processing, an analytical description of the relations between controller factors and variables and their integration in a global structure. Secondly, the simulation of experimental or clinical (I.P.O.’s Endocrinology Department) data implied testing physiopathological explanations that previously were based on intuition. The construction and utilisation of the model didn’t demand an advanced mathematical preparation since user-friendly interactive software was used. This software was specifically designed for the simulation of dynamic systems. The programs are written in English using elementary algebra symbols. The essential function of this type of models is identical to that of those used by physicists since the XVII century which describe quantitatively natural processes and are an intellectual tool for the manipulation of concepts and the performance of “thought experiments” based in certain physical principles (conservation principles) that are the frontiers of reality.------------------RESUMÉE: Les concentrations circulantes de calcium sont constantes même pendant des variations de l’absorption intestinale et de l’élimination rénale de cet élément. La régulation de la calcémie est un système complexe qui comprend plusieurs éléments contrôleurs (la calcémie, la phosphorémie, les concentrations circulantes de l’hormone parathyroïdienne (PTH) e du calcitriol et d’autres comme les hormones stéroïdes ou des ions comme le magnésium) et plusieurs organes (glandes parathyroïdiennes, l’os, le rein et l’intestin). Les réponses de ces organes sont variées. Dans le cas plus simple, la cristallisation des sels de calcium correspond à un changement de phase dans lequel y participent des molécules organiques que la débutent, l’accélèrent ou l’inhibent. Généralement la combinaison d’un élément contrôleur avec leur récepteur de membrane (pour les peptides ou les ions) ou intracellulaire (pour les hormones stéroïdes) n’est que le premier pas d’une chaîne biochimique qu’introduit une grande amplification de la réponse. A cette variété de réponses correspondent des grandes différences des temps de réponses qu’y vont des minuits a semaines. Il est possible « observer » (mesurer) dans les fluides biologiques (sang, urine, fèces, etc.) les éléments plus importants du système de régulation de la calcémie (calcium, phosphate, PTH et le calcitriol) et les administrer en expérimentes aigus. Cette possibilité est visible dans la littérature publiée dans ce domaine qui est en croissance permanente. L’avenir des techniques de biologie moléculaire a permis caractériser des nombreuses dysfonctions de la régulation de la calcémie et on attend un diagnostique physiopathologique de ces dysfonctions chaque fois plus rigoureuses. Les connaissances dans ce domaine s’agrandissent et on a de plus de capacités pour faire des diagnostiques et il est chaque fois plus difficile les interpréter. L’analyse ou synthèse de systèmes complexes est l’activité plus noble des ingénieurs qui les permit dessiner des ponts, bateaux, avions ou automobiles. Avec des ordinateurs de médium ou grand port il les est possible utiliser descriptions mathématiques pour dessiner les systèmes et interpréter des éventuelles fautes d’opération. Ces descriptions mathématiques sont une séquence d’opérations réalisées dans un ordinateur selon « un programme informatique » qui ont reçu la désignation générique de modèles, pour analogie avec les équations de la physique qui ont été déduits d’un nombre de postulées et qu’ont permit représenter des processus physiques en équations mathématiques. Les fameuses équations de Newton sont peut-être les exemples plus connus des systèmes physiques. L’introduction des modèles mathématiques en biologie et en particulier en médecine est un évènement récent. Dans ce travaille, on a construit un modèle simplifié de l’homéostasie du calcium pour calculer les variables observables (concentrations de calcium, phosphate, PTH et calcitriol) pour les comparer. Les choix des components a été déterminés par notre expérience clinique et par l’information physiopathologique et clinique publiée. Le modèle a été construit de façon modulaire ce que permit leur postérieur expansion sans des grandes altérations dans la description mathématique et informatique déjà existante. Dans cette forme le modèle ne peut être utilisé comme un instrument de diagnostique. Il est un outil pour éclairer la physiopathologie. Le modèle a été utilisé pour simuler un certain nombre d’observations publiées et pour exemplifier leur possible utilisation clinique dans la simulation des hypothèses et de la physiopathologie des situations d’hypo ou hypercalcémie. On a fait une analyse des éléments des procès cliniques des malades observées dans le Service d’Endocrinologie de l’IPOFG-CROL, SA. Dans une population de 894 malades avec des différentes pathologies les valeurs de calcémie on une distribution uni modale avec une Médie de 9.56 mg/dL et une erreur standard de 0.41 mg/dL. Ces observations suggèrent que la calcémie soit sujette de régulation. En utilisant des résultats de travaux publiés dans lesquels le métabolisme du calcium a été changé par des infusions de calcium, calcitriol ou PTH, des études biochimiques et physiologiques sur des mécanismes d’action des éléments contrôleurs de la calcémie et de l’étude du comportement des organes cible (parathyroïdes, intestin, rein, os), il a été possible de construire un modèle mathématique de paramètres concentrés du système de régulation de la calcémie. Les expressions analytiques utilisées ont été basées sur la cinétique enzymatique de façon à que les paramètres aient eu une signification physique ou biologique. Le modèle est stable quand il n’est pas perturbé et transit entre états stationnaires quand il est sujet a des perturbations. A ce moment il fait des simulations qui reproduisent de façon satisfaisant un nombre d’observations expérimentales. La construction du modèle permit l’addiction de nouvelles relations dans les cas ou il est insuffisant. L’utilisation exhaustive du modèle a permit expliciter des aspects du métabolisme du calcium qui y ne sont pas compris – l’hyperplasie ou la formation des adénomes des parathyroïdes, les altérations de la structure des os, la participation d’outres éléments régulateurs (magnésium), ou sont insuffisamment décrites – les altérations du métabolisme des phosphates dans l’hypoparathyroidism. L’analyse de l’information des malades du Service d’Endocrinologie a permit caractériser les pathologies représentées et leurs possibles mécanismes physiopathologiques. Ces observations sont le point de départ pour les analyses futures. Sont des exemples des relations trouvées: la distribution des malades par deux groupes: ceux dans lequel la calcémie est déterminée par la PTH ou ceux dans lesquels la PTH est déterminée par la calcémie; la distribution sazonale de la concentration de la vitamine D; la corrélation négative entre la vitamine D et la PTH. On a eu la possibilité de déduire la cinétique de control de la PTH sur la synthèse du calcitriol. L’étude des niveaux circulants de PTH sur des sujets parathyroidectomisées a permit déduire leur taux de dégradation métabolique. Le modèle a permit simuler les relations Ca/PTH dans le sang, Ca/fraction éliminée par le rein, Ca/P dans le sang pour des valeurs normales ou hautes de calcium. On a fait des simulations de situations physiopathologiques (dans “malades virtuelles”): Infusions chroniques de calcium, PTH ou calcitriol; altérations des récepteurs. Ces simulations ne peuvent pas être réalisées dans les humains. Sont des exemples d’utilisation du modèle dans l’exploration des possibles mécanismes de la physiopathologie en observant des résultats quantitatifs inaccessibles à l’intuition. Le modèle a été utile pendant deux étapes des travaux: La première, dans sa construction on a choisi l’information disponible, son analyse quantitative, l’explicitation rigoureuse (analytique) des relations fonctionnelles entre les contrôleurs et les variables et sa intégration dans une structure globale. La deuxième, la simulation de situations expérimentales ou cliniques (du Service d’Endocrinologie) a obligé d’expliciter des raisonnements physiopathologiques généralement formulés utilisant l’intuition. Cette pratique a montré des comportements – action réduite des infusions de PTH (jusqu’à l’inhibition totale de leur respective sécrétion), nécessité d’augmenter la masse sécréteuse de la parathyroïde dans les insuffisants rénales, etc. La synthèse et utilisation du modèle n’ont pas besoin d’une formation avancée en mathématique et sont possibles grâce à un programme interactif qui a été conçu pour la simulation des systèmes dynamiques dans lesquels le programme se construit en anglais en utilisant la symbolique élémentaire de l’algèbre. La fonction noble de ces modèles est semblable à celles des physiques du XVII siècle: Permettre établir explications générales en fonctionnant comme un outil intellectuel pour manipuler des concepts et pour la réalisation d’expérimentes pensées en respectant certains principes de la physique (principe de la conservation) qu’établissent les frontières de la réalité.
Resumo:
Este relatório é fruto de um trabalho desenvolvido por um período de seis meses onde é apresentada uma breve introdução da empresa, bem como as políticas pelas quais ela funciona. São também descritas as formações obtidas e o plano de trabalhos seguido. Relativamente ao trabalho em si, o tema principal do trabalho desenvolvido, e tal como é apresentado no título deste relatório, é a modelação hidráulica de um sistema adutor em alta, isto é, onde foi elaborado um modelo para uma rede de abastecimento de água recorrendo aos registos de consumos fornecidos pela empresa Águas do Douro e Paiva, S.A.. É realizada uma descrição dos vários passos que levaram à sua elaboração e são apresentadas as conclusões relativas aos resultados obtidos. Uma vez que o trabalho incidiu sobre o funcionamento e aprendizagem de software apropriado, foram também retiradas conclusões/sugestões que poderão ser tomadas de forma a melhorar a experiência entre programas e utilizadores. Apesar do tempo disponível para a realização do plano de trabalhos ter demonstrado ser o suficiente para o cumprimento dos vários requisitos, foi também suficiente para permitir a realização de outros trabalhos que proporcionaram a aquisição de mais experiência no desenvolvimento de modelos em EPANET.
Resumo:
A composição musical é um tema de muito interesse para a computação evolucionária dentro da área da inteligência artificial. É uma área que tem sofrido vários desenvolvimentos ao longo dos últimos anos pois o interesse em que hajam computadores que façam obras musicais é deveras aliciante. Este trabalho tem por objectivo realizar mais um passo nesse sentido. Assim, foi desenvolvida uma aplicação informática que realiza composições musicais de dois géneros distintos: Músicas Infantis e Músicas Blues. A aplicação foi implementada com recurso aos Algoritmos Genéticos, que são os algoritmos evolucionários mais populares da área da computação evolucionária. O trabalho foi estruturado em duas fases de desenvolvimento. Na primeira fase, realizou-se um levantamento estatístico sobre as características específicas de cada um dos géneros musicais. Analisaram-se quinze músicas de cada género musical, com o intuito de se chegar a uma proporção do uso que cada nota tem em cada um dos casos. Na segunda fase, desenvolveu-se o software que compõe as músicas com implementação de um algoritmo genético. Além disso, foi também desenvolvida uma interface gráfica que permite ao utilizador a escolha do género musical que pretende compor. O algoritmo genético começa por gerar uma população inicial de potenciais soluções de acordo com a escolha do utilizador, realizando, de seguida, o ciclo que caracteriza o algoritmo genético. A população inicial é constituída por soluções que seguem as regras que foram implementadas de acordo com os dados recolhidos ao longo da primeira fase. Foi também implementada uma interface de avaliação, através da qual, o utilizador pode ouvir cada uma das músicas para posterior avaliação em termos de fitness. O estado de evolução do algoritmo é apresentado, numa segunda interface, a qual facilita a clareza e justiça na avaliação ao longo de todo o processo. Esta última apresenta informação sobre a média das fitness da geração anterior e actual, sendo assim possível ter uma noção da evolução do algoritmo, no sentido de se obterem resultados satisfatórios no que diz respeito às composições musicais.
Resumo:
Submitted in partial fulfillment for the Requirements for the Degree of PhD in Mathematics, in the Speciality of Statistics in the Faculdade de Ciências e Tecnologia
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
A função de escalonamento desempenha um papel importante nos sistemas de produção. Os sistemas de escalonamento têm como objetivo gerar um plano de escalonamento que permite gerir de uma forma eficiente um conjunto de tarefas que necessitam de ser executadas no mesmo período de tempo pelos mesmos recursos. Contudo, adaptação dinâmica e otimização é uma necessidade crítica em sistemas de escalonamento, uma vez que as organizações de produção têm uma natureza dinâmica. Nestas organizações ocorrem distúrbios nas condições requisitos de trabalho regularmente e de forma inesperada. Alguns exemplos destes distúrbios são: surgimento de uma nova tarefa, cancelamento de uma tarefa, alteração na data de entrega, entre outros. Estes eventos dinâmicos devem ser tidos em conta, uma vez que podem influenciar o plano criado, tornando-o ineficiente. Portanto, ambientes de produção necessitam de resposta imediata para estes eventos, usando um método de reescalonamento em tempo real, para minimizar o efeito destes eventos dinâmicos no sistema de produção. Deste modo, os sistemas de escalonamento devem de uma forma automática e inteligente, ser capazes de adaptar o plano de escalonamento que a organização está a seguir aos eventos inesperados em tempo real. Esta dissertação aborda o problema de incorporar novas tarefas num plano de escalonamento já existente. Deste modo, é proposta uma abordagem de otimização – Hiper-heurística baseada em Seleção Construtiva para Escalonamento Dinâmico- para lidar com eventos dinâmicos que podem ocorrer num ambiente de produção, a fim de manter o plano de escalonamento, o mais robusto possível. Esta abordagem é inspirada em computação evolutiva e hiper-heurísticas. Do estudo computacional realizado foi possível concluir que o uso da hiper-heurística de seleção construtiva pode ser vantajoso na resolução de problemas de otimização de adaptação dinâmica.
Resumo:
Near real time media content personalisation is nowadays a major challenge involving media content sources, distributors and viewers. This paper describes an approach to seamless recommendation, negotiation and transaction of personalised media content. It adopts an integrated view of the problem by proposing, on the business-to-business (B2B) side, a brokerage platform to negotiate the media items on behalf of the media content distributors and sources, providing viewers, on the business-to-consumer (B2C) side, with a personalised electronic programme guide (EPG) containing the set of recommended items after negotiation. In this setup, when a viewer connects, the distributor looks up and invites sources to negotiate the contents of the viewer personal EPG. The proposed multi-agent brokerage platform is structured in four layers, modelling the registration, service agreement, partner lookup, invitation as well as item recommendation, negotiation and transaction stages of the B2B processes. The recommendation service is a rule-based switch hybrid filter, including six collaborative and two content-based filters. The rule-based system selects, at runtime, the filter(s) to apply as well as the final set of recommendations to present. The filter selection is based on the data available, ranging from the history of items watched to the ratings and/or tags assigned to the items by the viewer. Additionally, this module implements (i) a novel item stereotype to represent newly arrived items, (ii) a standard user stereotype for new users, (iii) a novel passive user tag cloud stereotype for socially passive users, and (iv) a new content-based filter named the collinearity and proximity similarity (CPS). At the end of the paper, we present off-line results and a case study describing how the recommendation service works. The proposed system provides, to our knowledge, an excellent holistic solution to the problem of recommending multimedia contents.
Resumo:
In recent years, vehicular cloud computing (VCC) has emerged as a new technology which is being used in wide range of applications in the area of multimedia-based healthcare applications. In VCC, vehicles act as the intelligent machines which can be used to collect and transfer the healthcare data to the local, or global sites for storage, and computation purposes, as vehicles are having comparatively limited storage and computation power for handling the multimedia files. However, due to the dynamic changes in topology, and lack of centralized monitoring points, this information can be altered, or misused. These security breaches can result in disastrous consequences such as-loss of life or financial frauds. Therefore, to address these issues, a learning automata-assisted distributive intrusion detection system is designed based on clustering. Although there exist a number of applications where the proposed scheme can be applied but, we have taken multimedia-based healthcare application for illustration of the proposed scheme. In the proposed scheme, learning automata (LA) are assumed to be stationed on the vehicles which take clustering decisions intelligently and select one of the members of the group as a cluster-head. The cluster-heads then assist in efficient storage and dissemination of information through a cloud-based infrastructure. To secure the proposed scheme from malicious activities, standard cryptographic technique is used in which the auotmaton learns from the environment and takes adaptive decisions for identification of any malicious activity in the network. A reward and penalty is given by the stochastic environment where an automaton performs its actions so that it updates its action probability vector after getting the reinforcement signal from the environment. The proposed scheme was evaluated using extensive simulations on ns-2 with SUMO. The results obtained indicate that the proposed scheme yields an improvement of 10 % in detection rate of malicious nodes when compared with the existing schemes.