920 resultados para diffusive viscoelastic model, global weak solution, error estimate
Resumo:
RESUMO - A frequente insuficiência de informação e até, eventualmente, a presença de elementos cientificamente pouco robustos (ou mesmo hipotéticos) no procedimento de obtenção dos resultados finais (scores) com os diversos métodos de avaliação do risco, julga-se determinar a obtenção de distintos resultados no mesmo posto de trabalho e que interessam analisar. O presente estudo foi efectuado numa empresa da indústria automóvel e pretendeu contribuir para a efectividade do processo de avaliação do risco destas lesões em meio industrial. Utilizaram-se como ponto de partida as classificações de risco em postos de trabalho onde a aplicação do método OCRA — base do projecto de norma Europeu prEN 1005-5 para a estimativa do risco de LMEMSLT (Lesões Musculoesqueléticas do Membro Superior Ligadas ao Trabalho) — identificou níveis de risco moderados e/ou elevados (score OCRA ≥ 16,5). Assim nos postos de trabalho (n = 71) registou-se em vídeo a actividade de trabalho. Analisaram-se os principais factores de risco (postura, força, repetitividade e exposição a vibrações) com uma amostragem de segundo em segundo e aplicaram-se dois métodos: 1) RULA (McAtamney; Corlett, 1993); 2) SI (Moore; Garg, 1995). Dos resultados globais da aplicação dos métodos identificam- se discrepâncias evidentes: o método SI classificou 41 postos de risco elevado e o método RULA classificou apenas 26 postos de risco. Destaque para as divergências entre os postos classificados de risco elevado como, por exemplo: de entre os 41 postos com scores de risco da aplicação do método SI apenas se encontram 12 postos classificados de risco pelo método RULA. Os resultados permitem evidenciar validades preditivas diversas para os factores de risco analisados: 1) situações de aplicação de força (SI = 0,80; RULA = 0,66); 2) presença de posturas extremas (SI = 0,68; RULA = 0,48); 3) repetitividade (SI = 0,35; RULA = 0,43). Conclui-se pela divergência de resultados dos métodos SI e RULA aplicados nos mesmos postos de trabalho que tal situação alerta para a pertinência da utilização de um filtro que permita a identificação dos factores de risco presentes em cada posto de trabalho e que, por consequência, oriente a selecção do método mais indicado ou ainda, em oposição, do método contra-indicado. Este trabalho, como um contributo para uma efectiva identificação e avaliação do risco de LMEMSLT, conduz, no limite, à necessidade de elaboração de uma «grelha» das «grelhas» e de informação mais precisa sobre os métodos e sua aplicação, permitindo, desse modo, uma mais efectiva gestão do risco destas lesões.
Resumo:
Se empleó un modelo poblacional estructurado por edades para estimar la abundancia, biomasa, biomasa desovante y el reclutamiento medio del stock norte – centro de la anchoveta peruana entre los años biológicos (octubre a setiembre) 1962-63 y 2007-08. El modelo, basado en un enfoque hacia adelante, fue optimizado minimizando las diferencias de los estimados del modelo y observaciones independientes de biomasa, desembarque y estructuras por edades de los desembarques. Los resultados muestran que han existido tres regímenes de productividad de dicho stock: el primero, entre 1962-63 y 1970-71, con la abundancia, biomasa, biomasa desovante y reclutamiento medio más altos; el segundo, entre 1971- 72 y 1990-91 con los niveles poblacionales más bajos; y el tercero, entre 1991-92 y 2007-08, con niveles intermedios. Parece claro que luego del colapso de las décadas de 1970 y 1980 el stock se ha recuperado de manera significativa aunque sin alcanzar los niveles de la década de 1960. Desde el año 2001-02 la biomasa desovante se ha mantenido por encima de cinco millones de toneladas, y la mortalidad por pesca ha mostrado una tendencia decreciente. Se demostró que el presente modelo estuvo en capacidad de captar la dinámica poblacional del stock norte – centro de la anchoveta validando su utilidad en las evaluaciones y monitoreo de la población de anchoveta.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
Resumo:
La plupart des conditions détectées par le dépistage néonatal sont reliées à l'une des enzymes qui dégradent les acyls-CoA mitochondriaux. Le rôle physiopathologique des acyls-CoA dans ces maladies est peu connue, en partie parce que les esters liés au CoA sont intracellulaires et les échantillons tissulaires de patients humains ne sont généralement pas disponibles. Nous avons créé une modèle animal murin de l'une de ces maladies, la déficience en 3-hydroxy-3-methylglutaryl-CoA lyase (HL), dans le foie (souris HLLKO). HL est la dernière enzyme de la cétogenèse et de la dégradation de la leucine. Une déficience chronique en HL et les crises métaboliques aigües, produisent chacune un portrait anormal et distinct d'acyls-CoA hépatiques. Ces profils ne sont pas prévisibles à partir des niveaux d'acides organiques urinaires et d'acylcarnitines plasmatiques. La cétogenèse est indétectable dans les hépatocytes HLLKO. Dans les mitochondries HLLKO isolées, le dégagement de 14CO2 à partir du [2-14C]pyruvate a diminué en présence de 2-ketoisocaproate (KIC), un métabolite de la leucine. Au test de tolérance au pyruvate, une mesure de la gluconéogenèse, les souris HLLKO ne présentent pas la réponse hyperglycémique normale. L'hyperammoniémie et l'hypoglycémie, des signes classiques de plusieurs erreurs innées du métabolisme (EIM) des acyls-CoA, surviennent de façon spontanée chez des souris HLLKO et sont inductibles par l'administration de KIC. Une charge en KIC augmente le niveau d'acyls-CoA reliés à la leucine et diminue le niveau d'acétyl-CoA. Les mitochondries des hépatocytes des souris HLLKO traitées avec KIC présentent un gonflement marqué. L'hyperammoniémie des souris HLLKO répond au traitement par l'acide N-carbamyl-L-glutamique. Ce composé permet de contourner une enzyme acétyl-CoA-dépendante essentielle pour l’uréogenèse, le N-acétylglutamate synthase. Ceci démontre un mécanisme d’hyperammoniémie lié aux acyls-CoA. Dans une deuxième EIM des acyls-CoA, la souris SCADD, déficiente en déshydrogénase des acyls-CoA à chaînes courtes. Le profil des acyls-CoA hépatiques montre un niveau élevé du butyryl-CoA particulièrement après un jeûne et après une charge en triglycérides à chaîne moyenne précurseurs du butyryl-CoA.
Resumo:
clRNG et clProbdist sont deux interfaces de programmation (APIs) que nous avons développées pour la génération de nombres aléatoires uniformes et non uniformes sur des dispositifs de calculs parallèles en utilisant l’environnement OpenCL. La première interface permet de créer au niveau d’un ordinateur central (hôte) des objets de type stream considérés comme des générateurs virtuels parallèles qui peuvent être utilisés aussi bien sur l’hôte que sur les dispositifs parallèles (unités de traitement graphique, CPU multinoyaux, etc.) pour la génération de séquences de nombres aléatoires. La seconde interface permet aussi de générer au niveau de ces unités des variables aléatoires selon différentes lois de probabilité continues et discrètes. Dans ce mémoire, nous allons rappeler des notions de base sur les générateurs de nombres aléatoires, décrire les systèmes hétérogènes ainsi que les techniques de génération parallèle de nombres aléatoires. Nous présenterons aussi les différents modèles composant l’architecture de l’environnement OpenCL et détaillerons les structures des APIs développées. Nous distinguons pour clRNG les fonctions qui permettent la création des streams, les fonctions qui génèrent les variables aléatoires uniformes ainsi que celles qui manipulent les états des streams. clProbDist contient les fonctions de génération de variables aléatoires non uniformes selon la technique d’inversion ainsi que les fonctions qui permettent de retourner différentes statistiques des lois de distribution implémentées. Nous évaluerons ces interfaces de programmation avec deux simulations qui implémentent un exemple simplifié d’un modèle d’inventaire et un exemple d’une option financière. Enfin, nous fournirons les résultats d’expérimentation sur les performances des générateurs implémentés.
Resumo:
This thesis develops an approach to the construction of multidimensional stochastic models for intelligent systems exploring an underwater environment. It describes methods for building models by a three- dimensional spatial decomposition of stochastic, multisensor feature vectors. New sensor information is incrementally incorporated into the model by stochastic backprojection. Error and ambiguity are explicitly accounted for by blurring a spatial projection of remote sensor data before incorporation. The stochastic models can be used to derive surface maps or other representations of the environment. The methods are demonstrated on data sets from multibeam bathymetric surveying, towed sidescan bathymetry, towed sidescan acoustic imagery, and high-resolution scanning sonar aboard a remotely operated vehicle.
Resumo:
This paper describes a new statistical, model-based approach to building a contact state observer. The observer uses measurements of the contact force and position, and prior information about the task encoded in a graph, to determine the current location of the robot in the task configuration space. Each node represents what the measurements will look like in a small region of configuration space by storing a predictive, statistical, measurement model. This approach assumes that the measurements are statistically block independent conditioned on knowledge of the model, which is a fairly good model of the actual process. Arcs in the graph represent possible transitions between models. Beam Viterbi search is used to match measurement history against possible paths through the model graph in order to estimate the most likely path for the robot. The resulting approach provides a new decision process that can be use as an observer for event driven manipulation programming. The decision procedure is significantly more robust than simple threshold decisions because the measurement history is used to make decisions. The approach can be used to enhance the capabilities of autonomous assembly machines and in quality control applications.
Resumo:
The memory hierarchy is the main bottleneck in modern computer systems as the gap between the speed of the processor and the memory continues to grow larger. The situation in embedded systems is even worse. The memory hierarchy consumes a large amount of chip area and energy, which are precious resources in embedded systems. Moreover, embedded systems have multiple design objectives such as performance, energy consumption, and area, etc. Customizing the memory hierarchy for specific applications is a very important way to take full advantage of limited resources to maximize the performance. However, the traditional custom memory hierarchy design methodologies are phase-ordered. They separate the application optimization from the memory hierarchy architecture design, which tend to result in local-optimal solutions. In traditional Hardware-Software co-design methodologies, much of the work has focused on utilizing reconfigurable logic to partition the computation. However, utilizing reconfigurable logic to perform the memory hierarchy design is seldom addressed. In this paper, we propose a new framework for designing memory hierarchy for embedded systems. The framework will take advantage of the flexible reconfigurable logic to customize the memory hierarchy for specific applications. It combines the application optimization and memory hierarchy design together to obtain a global-optimal solution. Using the framework, we performed a case study to design a new software-controlled instruction memory that showed promising potential.
Resumo:
The application of Discriminant function analysis (DFA) is not a new idea in the study of tephrochrology. In this paper, DFA is applied to compositional datasets of two different types of tephras from Mountain Ruapehu in New Zealand and Mountain Rainier in USA. The canonical variables from the analysis are further investigated with a statistical methodology of change-point problems in order to gain a better understanding of the change in compositional pattern over time. Finally, a special case of segmented regression has been proposed to model both the time of change and the change in pattern. This model can be used to estimate the age for the unknown tephras using Bayesian statistical calibration
Resumo:
Este estudio de caso busca analizar la Política Exterior Japonesa en materia económica frente a las dinámicas comerciales tanto de Corea del Sur como del mismo Japón en el Periodo 2001 – 2011, teniendo como objetivo concreto la identificación de la incidencia que tienen dichas dinámicas comerciales, en términos de competitividad por precio y calidad, sobre la Política Exterior Comercial Japonesa (PECJ).
Resumo:
Early detection of breast cancer (BC) with mammography may cause overdiagnosis and overtreatment, detecting tumors which would remain undiagnosed during a lifetime. The aims of this study were: first, to model invasive BC incidence trends in Catalonia (Spain) taking into account reproductive and screening data; and second, to quantify the extent of BC overdiagnosis. We modeled the incidence of invasive BC using a Poisson regression model. Explanatory variables were: age at diagnosis and cohort characteristics (completed fertility rate, percentage of women that use mammography at age 50, and year of birth). This model also was used to estimate the background incidence in the absence of screening. We used a probabilistic model to estimate the expected BC incidence if women in the population used mammography as reported in health surveys. The difference between the observed and expected cumulative incidences provided an estimate of overdiagnosis.Incidence of invasive BC increased, especially in cohorts born from 1940 to 1955. The biggest increase was observed in these cohorts between the ages of 50 to 65 years, where the final BC incidence rates more than doubled the initial ones. Dissemination of mammography was significantly associated with BC incidence and overdiagnosis. Our estimates of overdiagnosis ranged from 0.4% to 46.6%, for women born around 1935 and 1950, respectively.Our results support the existence of overdiagnosis in Catalonia attributed to mammography usage, and the limited malignant potential of some tumors may play an important role. Women should be better informed about this risk. Research should be oriented towards personalized screening and risk assessment tools
Resumo:
In this paper we consider the impedance boundary value problem for the Helmholtz equation in a half-plane with piecewise constant boundary data, a problem which models, for example, outdoor sound propagation over inhomogeneous. at terrain. To achieve good approximation at high frequencies with a relatively low number of degrees of freedom, we propose a novel Galerkin boundary element method, using a graded mesh with smaller elements adjacent to discontinuities in impedance and a special set of basis functions so that, on each element, the approximation space contains polynomials ( of degree.) multiplied by traces of plane waves on the boundary. We prove stability and convergence and show that the error in computing the total acoustic field is O( N-(v+1) log(1/2) N), where the number of degrees of freedom is proportional to N logN. This error estimate is independent of the wavenumber, and thus the number of degrees of freedom required to achieve a prescribed level of accuracy does not increase as the wavenumber tends to infinity.
Resumo:
A wind catcher/tower natural ventilation system was installed in a seminar room in the building of the School of Construction Management and Engineering, the University of Reading in the UK . Performance was analysed by means of ventilation tracer gas measurements, indoor climate measurements (temperature, humidity, CO2) and occupant surveys. In addition, the potential of simple design tools was evaluated by comparing observed ventilation results with those predicted by an explicit ventilation model and the AIDA implicit ventilation model. To support this analysis, external climate parameters (wind speed and direction, solar radiation, external temperature and humidity) were also monitored. The results showed the chosen ventilation design provided a substantially greater ventilation rate than an equivalent area of openable window. Also air quality parameters stayed within accepted norms while occupants expressed general satisfaction with the system and with comfort conditions. Night cooling was maximised by using the system in combination with openable windows. Comparisons of calculations with ventilation rate measurements showed that while AIDA gave reasonably correlated results with the monitored performance results, the widely used industry explicit model was found to over estimate the monitored ventilation rate.
Resumo:
A neural network enhanced proportional, integral and derivative (PID) controller is presented that combines the attributes of neural network learning with a generalized minimum-variance self-tuning control (STC) strategy. The neuro PID controller is structured with plant model identification and PID parameter tuning. The plants to be controlled are approximated by an equivalent model composed of a simple linear submodel to approximate plant dynamics around operating points, plus an error agent to accommodate the errors induced by linear submodel inaccuracy due to non-linearities and other complexities. A generalized recursive least-squares algorithm is used to identify the linear submodel, and a layered neural network is used to detect the error agent in which the weights are updated on the basis of the error between the plant output and the output from the linear submodel. The procedure for controller design is based on the equivalent model, and therefore the error agent is naturally functioned within the control law. In this way the controller can deal not only with a wide range of linear dynamic plants but also with those complex plants characterized by severe non-linearity, uncertainties and non-minimum phase behaviours. Two simulation studies are provided to demonstrate the effectiveness of the controller design procedure.