868 resultados para min-max shadow maps
Resumo:
169 p.+ anexos
Resumo:
Este estudo teve como objetivo avaliar a magnitude da exposição de pinguins do gênero Pygoscelis da Antártica ao mercúrio total (HgT), selênio (Se) e cobre (Cu) e verificar a variabilidade destes elementos-traço de acordo com suas características biológicas, para tal foram utilizadas penas do peito de Pygoscelis papua (n=30), P. antarctica (n=21) e P. adeliae (n=48) que corresponderam àquelas coletadas em animais da Ilha Rei George, Antártica. Encontrou-se níveis aparentemente inferiores de HgT e Se em P. papua tendo também sido a espécie que mais se distinguiu das outras duas. Além disto, houve correlação entre os níveis de HgT e Se para as espécies P. antarctica e P. adeliae indicando que é possível que ocorra nos pinguins um processo de destoxificação do mercúrio orgânico por meio do selênio, porém isto não pôde foi confirmado. Ressalta-se que o atual estudo é o primeiro a relatar níveis de HgT em penas do peito da espécie P. antarctica, sendo esta informação relevante para o entendimento e conservação desta espécie de pinguim da Antártica. De modo geral o cobre (8346/32545 ng/g p.s. mín/máx) foi o elemento que apareceu em concentrações maiores se comparado ao selênio (618,7/7923,5 ng/g p.s. mín/máx) e mercúrio total (114,6/1180,2 ng/g p.s. mín/máx). Estas elevadas concentrações de cobre nas penas possivelmente se deve a incorporação via alimentação composta essencialmente de krill, que é um crustáceo de altas concentrações deste elemento essencial. Genericamente foi possível observar que todas as informações reportadas no atual trabalho, tais como as correlações entre os elementos-traço (HgT e Se) e características biológicas, mostram que as três espécies de pinguins analisadas seguem padrões distintos de distribuição de elementos-traço possivelmente porque apresentam dieta diferenciada, além disto, é provável que as características individuais influenciem nestes padrões, e por isto devem ser avaliadas para um melhor entendimento da distribuição dos elementos-traço nestes animais. Observa-se que as concentrações do elemento-traço não essencial HgT aparentemente não constituiu uma ameaça aos pinguins porque foi inferior ao nível considerado prejudicial a aves, enquanto o selênio é um elemento que deve ser constantemente monitorado pois exibiu concentrações próximas àquelas considerada danosa para aves quando incorporadas via dieta. Verificou-se que a presença dos elementos-traço não constitui uma ameaça a saúde dos Pygoscelis da Ilha Rei George, apesar disso, faz-se necessária a realização de um programa de monitoramento constante nesta região, que é uma área ainda considerada como não impactada pela ação antrópica.
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
To manage and process a large amount of oceanographic data, users must have powerful tools that simplify these tasks. The VODC for PC is software designed to assist in managing oceanographic data. It based on 32 bits Windows operation system and used Microsoft Access database management system. With VODC for PC users can update data simply, convert to some international data formats, combine some VODC databases to one, calculate average, min, max fields for some types of data, check for valid data…
Resumo:
本文提出一种基于阴影图预滤波的伪柔和阴影实时绘制算法。 阴影是真实世界中的一种十分普遍的物理现象,它不但可以反映物体自身的形状,而且可以反映空间中物体与物体之间的相对位置关系,对于增加场景的真实感具有非常重要的意义。因而阴影的实时绘制一直都是计算机图形学中一个重要的研究方向。 方差阴影图算法是对传统阴影图算法的一个重要改进。传统的阴影图算法虽然有着易于实现、硬件支持好、与场景复杂度无关等优点,但是由于它是对场景的离散表示,所以会出现各种各样的走样问题。方差阴影图算法是使用概率的方法计算片元被遮挡的上限概率,它可以通过对深度图滤波的方法来有效地减少阴影图算法中的走样问题。方差阴影图算法克服了传统阴影图算法中边界走样问题,可以生成比较柔和的边界。但是,这种概率方法在深度比较复杂的场景中会出现光渗现象,即在原本应该是阴影的区域却有了亮度。本文使用最小-最大阴影图来辅助消除方差阴影图中的光渗现象。算法在对深度纹理进行滤波的同时生成一个最小-最大阴影图;在从视点实时绘制场景时,利用最小-最大阴影图来辅助判断当前片元是否完全处在阴影区域内部。通过将最小-最大阴影图和方差阴影图相结合,本文的算法可以快速生成伪柔和阴影。
Resumo:
本文提出一种聚类引导搜索(cluster guide searching,CGS)的路径规划方法。采用基于最大最小距离的K均值聚类方法对样本进行离线聚类学习,学习结果以相似环境相似决策的知识形式进行存储。路径规划过程中,机器人在线整理环境信息,获得输入空间样本,通过与知识库匹配,检索到最近的类别,然后在该类别内部采用速度优先策略和方向优先策略交替的方式搜索输出空间。若知识不完备导致检索失败,可重启线性规划算法(linear programming,LP)进行在线路径规划,并更新聚类知识库。仿真结果表明该方法是一种有效的路径规划学习方法。
Resumo:
X. Wang, J. Yang, R. Jensen and X. Liu, 'Rough Set Feature Selection and Rule Induction for Prediction of Malignancy Degree in Brain Glioma,' Computer Methods and Programs in Biomedicine, vol. 83, no. 2, pp. 147-156, 2006.
Resumo:
Adaptive Resonance Theory (ART) models are real-time neural networks for category learning, pattern recognition, and prediction. Unsupervised fuzzy ART and supervised fuzzy ARTMAP synthesize fuzzy logic and ART networks by exploiting the formal similarity between the computations of fuzzy subsethood and the dynamics of ART category choice, search, and learning. Fuzzy ART self-organizes stable recognition categories in response to arbitrary sequences of analog or binary input patterns. It generalizes the binary ART 1 model, replacing the set-theoretic: intersection (∩) with the fuzzy intersection (∧), or component-wise minimum. A normalization procedure called complement coding leads to a symmetric: theory in which the fuzzy inter:>ec:tion and the fuzzy union (∨), or component-wise maximum, play complementary roles. Complement coding preserves individual feature amplitudes while normalizing the input vector, and prevents a potential category proliferation problem. Adaptive weights :otart equal to one and can only decrease in time. A geometric interpretation of fuzzy AHT represents each category as a box that increases in size as weights decrease. A matching criterion controls search, determining how close an input and a learned representation must be for a category to accept the input as a new exemplar. A vigilance parameter (p) sets the matching criterion and determines how finely or coarsely an ART system will partition inputs. High vigilance creates fine categories, represented by small boxes. Learning stops when boxes cover the input space. With fast learning, fixed vigilance, and an arbitrary input set, learning stabilizes after just one presentation of each input. A fast-commit slow-recode option allows rapid learning of rare events yet buffers memories against recoding by noisy inputs. Fuzzy ARTMAP unites two fuzzy ART networks to solve supervised learning and prediction problems. A Minimax Learning Rule controls ARTMAP category structure, conjointly minimizing predictive error and maximizing code compression. Low vigilance maximizes compression but may therefore cause very different inputs to make the same prediction. When this coarse grouping strategy causes a predictive error, an internal match tracking control process increases vigilance just enough to correct the error. ARTMAP automatically constructs a minimal number of recognition categories, or "hidden units," to meet accuracy criteria. An ARTMAP voting strategy improves prediction by training the system several times using different orderings of the input set. Voting assigns confidence estimates to competing predictions given small, noisy, or incomplete training sets. ARPA benchmark simulations illustrate fuzzy ARTMAP dynamics. The chapter also compares fuzzy ARTMAP to Salzberg's Nested Generalized Exemplar (NGE) and to Simpson's Fuzzy Min-Max Classifier (FMMC); and concludes with a summary of ART and ARTMAP applications.
Resumo:
A random dialing telephone survey of 1,071 60+ year-olds in 4 Ontario communities identified 553 (52%) users of natural health products. Mean age was 72 yrs (min-max:60-95); 76% were female. The most frequently reported natural health products were: echinacea (27%), glucosamine (26%), garlic (20%), ginkgo biloba (10%), St. John's wort (5%), ginseng (5%), flax seed oil (3%), evening primrose oil (2%), devil's claw (2%), saw palmetto (2%). Natural source vitamin use was reported by 24% of users, and 6% reporting using herbal teas. 51% of users used 2 or more herbal products and 8% used 5 or more products. 19% of herbal users also used a conventional prescription drug to manage the same health problem as the herbal product. The reported range of monthly expenditures for these products varied from a few cents (grew their own) to $288 (CAN). Thirty-five percent of users did not know the price of at least one of their natural products. Of the 75% of respondents willing to disclose their annual household income ($CAN), 20 had an income of $46,000. The widespread use and potential for significant expenditure of limited resources would suggest that more study is required into the efficacy, safety and value of these products.
Resumo:
Fiber-reinforced polymer (FRP) hollow tubes are used in structural applications, such as utility poles and pipelines. Concrete-filled FRP tubes (CFFTs) are also used as piles and bridge piers. Applications such as poles and marine piles are typically governed by cyclic bending. In this paper, the fatigue behavior of glass-FRP filament-wound tubes is studied using coupons cut from the tubes. Several coupon configurations were first examined in 24 tension and five compression monotonic loading tests. Fatigue tests were then conducted on 81 coupons to examine several parameters; namely, loading frequency as well as maximum-to-ultimate (max ult) and minimum-to-maximum (min max) stress ratios, including tension tension and tension compression, to simulate reversed bending. The study demonstrated the sensitivity of test results and failure mode to coupon configuration. The presence of compression loads reduced fatigue life, while increasing load frequency increased fatigue life. Stiffness degradation behavior was also established. To achieve at least one million cycles, it is recommended to limit (max ult) to 0.25. Models were used to simulate stiffness degradation and fatigue life curve of the tube. Fatigue life predictions of large CFFT beams showed good correlation with experimental results. © 2008 ASCE.
Resumo:
We focus on large-scale and dense deeply embedded systems where, due to the large amount of information generated by all nodes, even simple aggregate computations such as the minimum value (MIN) of the sensor readings become notoriously expensive to obtain. Recent research has exploited a dominance-based medium access control(MAC) protocol, the CAN bus, for computing aggregated quantities in wired systems. For example, MIN can be computed efficiently and an interpolation function which approximates sensor data in an area can be obtained efficiently as well. Dominance-based MAC protocols have recently been proposed for wireless channels and these protocols can be expected to be used for achieving highly scalable aggregate computations in wireless systems. But no experimental demonstration is currently available in the research literature. In this paper, we demonstrate that highly scalable aggregate computations in wireless networks are possible. We do so by (i) building a new wireless hardware platform with appropriate characteristics for making dominance-based MAC protocols efficient, (ii) implementing dominance-based MAC protocols on this platform, (iii) implementing distributed algorithms for aggregate computations (MIN, MAX, Interpolation) using the new implementation of the dominance-based MAC protocol and (iv) performing experiments to prove that such highly scalable aggregate computations in wireless networks are possible.
Resumo:
La ventilation unipulmonaire (SLV; Single Lung Ventilation) pendant les chirurgies thoraciques entraîne des altérations cardio-pulmonaires et hémodynamiques importantes. L’objectif de ce projet de recherche consiste à étudier l’impact de la SLV sur l’oxymétrie cérébrale et sa relation avec les complications post opératoires. La première étude inclut vingt patients ayant subi une chirurgie thoracique nécessitant une SLV. L’oxymétrie a été mesurée à l’aide de l’oxymètre cérébral absolu FORESIGHTTM (CASMED, USA) afin d’étudier les changements de la saturation cérébrale absolue (SctO2) tout le long de la chirurgie. La SctO2 ainsi que les paramètres de monitorage standard (BIS, SpO2, pression sanguine, fréquence cardiaque) ont été notés à toutes les cinq minutes à partir de l’induction jusqu’au réveil. Une analyse sanguine (paO2, paCO2, Hb) a été effectuée à toutes les quinze minutes. La deuxième étude effectuée consistait d’étudier la relation entre la désaturation cérébrale en oxygène et les complications post opératoires. Pour cette fin, les scores Clavien et SOFA mesurant l’amplitude des complications, ont été établis pour chaque patient. Les données sont présentées sous forme de moyenne et de la médiane [1er quartile, 3ème quartile; min – max]. Les vingt patients de la première étude ont montré une valeur moyenne absolue de saturation cérébrale absolue (SctO2) de 80% avant l’induction. Durant la SLV, cette valeur a chuté jusqu’à 63% et est remontée à 71% directement après extubation. Tous ces patients ont subi une désaturation durant SLV de plus que 15% comparativement à la valeur de base et 70% ont eu une désaturation de plus de 20%. La désaturation n’a pas été corrélée avec aucun des paramètres de monitorage clinique standard comme la pression artérielle, les analyses des gaz artériels, la saturation périphérique ou la PaO2. La deuxième étude incluant trente autres patients aux vingt premiers, est venue confirmer les résultats de la première étude. De plus, une analyse de corrélation entre les valeurs minimales de SctO2 obtenues durant SLV et les complications post opératoires a été effectuée. Les patients avaient une SctO2 de base de 80%, qui a chuté jusqu’à 64% pendant la SLV pour récupérer à 71% avant la fin de la chirurgie. 82% des patients ont subi des désaturations de plus de 15% des valeurs initiales et 10% ont atteint des valeurs de SctO2 entre 45 et 55%. Les valeurs minimales de SctO2 observées durant la SLV corrélaient avec le score SOFA non respiratoire (R2=0,090, p=0,0287) ainsi qu’avec le score Clavien (R2=0,098, p=0,0201), mais ne corrélait avec aucun des paramètres cliniques standards (ex : SpO¬2, PaO2, PaCO2, Hb). En définissant une valeur seuil de SctO2=65%, le «Odds ratio» d’avoir une défaillance d’organe non respiratoire est de 2.37 (IC 95%=1,18 – 4,39, p=0,043) et d’avoir une complication classifiée supérieure à un score Clavien de 0 est de 3,19 (IC 95%=1,6 – 6,34, p=0,0272). Les chirurgies thoraciques avec une SLV sont associées à des chutes significatives de SctO2, et les valeurs minimales de SctO2 semblent avoir une corrélation positive avec les complications post opératoires.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Nous présentons une nouvelle approche pour formuler et calculer le temps de séparation des événements utilisé dans l’analyse et la vérification de différents systèmes cycliques et acycliques sous des contraintes linéaires-min-max avec des composants ayant des délais finis et infinis. Notre approche consiste à formuler le problème sous la forme d’un programme entier mixte, puis à utiliser le solveur Cplex pour avoir les temps de séparation entre les événements. Afin de démontrer l’utilité en pratique de notre approche, nous l’avons utilisée pour la vérification et l’analyse d’une puce asynchrone d’Intel de calcul d’équations différentielles. Comparée aux travaux précédents, notre approche est basée sur une formulation exacte et elle permet non seulement de calculer le maximum de séparation, mais aussi de trouver un ordonnancement cyclique et de calculer les temps de séparation correspondant aux différentes périodes possibles de cet ordonnancement.
Resumo:
Introduction : Le bruxisme du sommeil est un désordre du mouvement décrit comme un mouvement involontaire de la mastication durant le sommeil. Cette parafonction est observée dans 14-38% de la population pédiatrique. Un lien a été trouvé entre les événements respiratoires et les épisodes de bruxisme. L’expansion palatine rapide (EPR) est un traitement orthopédique effectué chez les enfants en croissance pour régler un manque transverse squelettique du maxillaire supérieur. Quelques études ont observé que l’apnée obstructive du sommeil a été diminuée par un traitement d’expansion palatine rapide. Objectifs : Étant donné que le bruxisme est en lien avec des événements respiratoires et que l’expansion palatine rapide augmente la dimension des cavités nasales, l’objectif de la présente étude est d’évaluer la possible réduction du bruxisme après le traitement d’expansion rapide. Méthodes : Ce projet pilote est une étude clinique randomisée contrôlée de patients consécutifs qui a inclus 27 enfants (8-14 ans, 8 garçons et 19 filles) avec ou sans bruxisme du sommeil. Tous ces patients sont venus à la clinique d’orthodontie de l’Université de Montréal et présentaient un manque transverse du maxillaire supérieur (au moins 5 mm). Dans le cadre de l’étude, les patients devaient passer un enregistrement polysomnographique ambulatoire avant le traitement d’expansion palatine (T0) et après l’activation de l’appareil d’expansion (T1). Résultats : Les résultats démontrent une diminution du bruxisme chez 60% (9 patients) de nos patients bruxeurs. L’interaction entre le traitement et les groupes (Br et Ctl) s’est avérée significative (p=0,05 ANOVA mesures répétées), et démontre une diminution du bruxisme chez les bruxeurs (p=0,04, t-test paire). Les médianes (min, max) du groupe avec bruxisme sont passées de 3,11 (2,06; 7,68) à 2,85 (0,00; 9,51). Les paramètres de sommeil sont restés stables (Stade N1/N2/N3, REM, efficacité du sommeil), ainsi que les paramètres respiratoires et le ronflement. Conclusion : Une réduction du bruxisme a été observée lors de cette étude, mais un échantillonnage plus grand est nécessaire pour conclure.