856 resultados para Interval arithmetic


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A new niche of densely populated, unprotected networks is becoming more prevalent in public areas such as Shopping Malls, defined here as independent open-access networks, which have attributes that make attack detection more challenging than in typical enterprise networks. To address these challenges, new detection systems which do not rely on knowledge of internal device state are investigated here. This paper shows that this lack of state information requires an additional metric (The exchange timeout window) for detection of WLAN Denial of Service Probe Flood attacks. Variability in this metric has a significant influence on the ability of a detection system to reliably detect the presence of attacks. A parameter selection method is proposed which is shown to provide reliability and repeatability in attack detection in WLANs. Results obtained from ongoing live trials are presented that demonstrate the importance of accurately estimating probe request and probe response timeouts in future Independent Intrusion Detection Systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Economic dispatch (ED) problems often exhibit non-linear, non-convex characteristics due to the valve point effects. Further, various constraints and factors, such as prohibited operation zones, ramp rate limits and security constraints imposed by the generating units, and power loss in transmission make it even more challenging to obtain the global optimum using conventional mathematical methods. Meta-heuristic approaches are capable of solving non-linear, non-continuous and non-convex problems effectively as they impose no requirements on the optimization problems. However, most methods reported so far mainly focus on a specific type of ED problems, such as static or dynamic ED problems. This paper proposes a hybrid harmony search with arithmetic crossover operation, namely ACHS, for solving five different types of ED problems, including static ED with valve point effects, ED with prohibited operating zones, ED considering multiple fuel cells, combined heat and power ED, and dynamic ED. In this proposed ACHS, the global best information and arithmetic crossover are used to update the newly generated solution and speed up the convergence, which contributes to the algorithm exploitation capability. To balance the exploitation and exploration capabilities, the opposition based learning (OBL) strategy is employed to enhance the diversity of solutions. Further, four commonly used crossover operators are also investigated, and the arithmetic crossover shows its efficiency than the others when they are incorporated into HS. To make a comprehensive study on its scalability, ACHS is first tested on a group of benchmark functions with a 100 dimensions and compared with several state-of-the-art methods. Then it is used to solve seven different ED cases and compared with the results reported in literatures. All the results confirm the superiority of the ACHS for different optimization problems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The problem addressed here originates in the industry of flat glass cutting and wood panel sawing, where smaller items are cut from larger items accordingly to predefined cutting patterns. In this type of industry the smaller pieces that are cut from the patterns are piled around the machine in stacks according to the size of the pieces, which are moved to the warehouse only when all items of the same size have been cut. If the cutting machine can process only one pattern at a time, and the workspace is limited, it is desirable to set the sequence in which the cutting patterns are processed in a way to minimize the maximum number of open stacks around the machine. This problem is known in literature as the minimization of open stacks (MOSP). To find the best sequence of the cutting patterns, we propose an integer programming model, based on interval graphs, that searches for an appropriate edge completion of the given graph of the problem, while defining a suitable coloring of its vertices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Methadone is administered as a chiral mixture of (R,S)-methadone. The opioid effect is mainly mediated by (R)-methadone, whereas (S)-methadone blocks the human ether-à-go-go-related gene (hERG) voltage-gated potassium channel more potently, which can cause drug-induced long QT syndrome, leading to potentially lethal ventricular tachyarrhythmias. To investigate whether substitution of (R,S)-methadone by (R)-methadone could reduce the corrected QT (QTc) interval, (R,S)-methadone was replaced by (R)-methadone (half-dose) in 39 opioid-dependent patients receiving maintenance treatment for 14 days. (R)-methadone was then replaced by the initial dose of (R,S)-methadone for 14 days (n = 29). Trough (R)-methadone and (S)-methadone plasma levels and electrocardiogram measurements were taken. The Fridericia-corrected QT (QTcF) interval decreased when (R,S)-methadone was replaced by a half-dose of (R)-methadone; the median (interquartile range [IQR]) values were 423 (398-440) milliseconds (ms) and 412 (395-431) ms (P = .06) at days 0 and 14, respectively. Using a univariate mixed-effect linear model, the QTcF value decreased by a mean of -3.9 ms (95% confidence interval [CI], -7.7 to -0.2) per week (P = .04). The QTcF value increased when (R)-methadone was replaced by the initial dose of (R,S)-methadone for 14 days; median (IQR) values were 424 (398-436) ms and 424 (412-443) ms (P = .01) at days 14 and 28, respectively. The univariate model showed that the QTcF value increased by a mean of 4.7 ms (95% CI, 1.3-8.1) per week (P = .006). Substitution of (R,S)-methadone by (R)-methadone reduces the QTc interval value. A safer cardiac profile of (R)-methadone is in agreement with previous in vitro and pharmacogenetic studies. If the present results are confirmed by larger studies, (R)-methadone should be prescribed instead of (R,S)-methadone to reduce the risk of cardiac toxic effects and sudden death.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

UANL

Relevância:

20.00% 20.00%

Publicador:

Resumo:

UANL

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We provide a theoretical framework to explain the empirical finding that the estimated betas are sensitive to the sampling interval even when using continuously compounded returns. We suppose that stock prices have both permanent and transitory components. The permanent component is a standard geometric Brownian motion while the transitory component is a stationary Ornstein-Uhlenbeck process. The discrete time representation of the beta depends on the sampling interval and two components labelled \"permanent and transitory betas\". We show that if no transitory component is present in stock prices, then no sampling interval effect occurs. However, the presence of a transitory component implies that the beta is an increasing (decreasing) function of the sampling interval for more (less) risky assets. In our framework, assets are labelled risky if their \"permanent beta\" is greater than their \"transitory beta\" and vice versa for less risky assets. Simulations show that our theoretical results provide good approximations for the means and standard deviations of estimated betas in small samples. Our results can be perceived as indirect evidence for the presence of a transitory component in stock prices, as proposed by Fama and French (1988) and Poterba and Summers (1988).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

UANL

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Soit $p_1 = 2, p_2 = 3, p_3 = 5,\ldots$ la suite des nombres premiers, et soient $q \ge 3$ et $a$ des entiers premiers entre eux. R\'ecemment, Daniel Shiu a d\'emontr\'e une ancienne conjecture de Sarvadaman Chowla. Ce dernier a conjectur\'e qu'il existe une infinit\'e de couples $p_n,p_{n+1}$ de premiers cons\'ecutifs tels que $p_n \equiv p_{n+1} \equiv a \bmod q$. Fixons $\epsilon > 0$. Une r\'ecente perc\'ee majeure, de Daniel Goldston, J\`anos Pintz et Cem Y{\i}ld{\i}r{\i}m, a \'et\'e de d\'emontrer qu'il existe une suite de nombres r\'eels $x$ tendant vers l'infini, tels que l'intervalle $(x,x+\epsilon\log x]$ contienne au moins deux nombres premiers $\equiv a \bmod q$. \'Etant donn\'e un couple de nombres premiers $\equiv a \bmod q$ dans un tel intervalle, il pourrait exister un nombre premier compris entre les deux qui n'est pas $\equiv a \bmod q$. On peut d\'eduire que soit il existe une suite de r\'eels $x$ tendant vers l'infini, telle que $(x,x+\epsilon\log x]$ contienne un triplet $p_n,p_{n+1},p_{n+2}$ de nombres premiers cons\'ecutifs, soit il existe une suite de r\'eels $x$, tendant vers l'infini telle que l'intervalle $(x,x+\epsilon\log x]$ contienne un couple $p_n,p_{n+1}$ de nombres premiers tel que $p_n \equiv p_{n+1} \equiv a \bmod q$. On pense que les deux \'enonc\'es sont vrais, toutefois on peut seulement d\'eduire que l'un d'entre eux est vrai, sans savoir lequel. Dans la premi\`ere partie de cette th\`ese, nous d\'emontrons que le deuxi\`eme \'enonc\'e est vrai, ce qui fournit une nouvelle d\'emonstration de la conjecture de Chowla. La preuve combine des id\'ees de Shiu et de Goldston-Pintz-Y{\i}ld{\i}r{\i}m, donc on peut consid\'erer que ce r\'esultat est une application de leurs m\'thodes. Ensuite, nous fournirons des bornes inf\'erieures pour le nombre de couples $p_n,p_{n+1}$ tels que $p_n \equiv p_{n+1} \equiv a \bmod q$, $p_{n+1} - p_n < \epsilon\log p_n$, avec $p_{n+1} \le Y$. Sous l'hypoth\`ese que $\theta$, le \og niveau de distribution \fg{} des nombres premiers, est plus grand que $1/2$, Goldston-Pintz-Y{\i}ld{\i}r{\i}m ont r\'eussi \`a d\'emontrer que $p_{n+1} - p_n \ll_{\theta} 1$ pour une infinit\'e de couples $p_n,p_{n+1}$. Sous la meme hypoth\`ese, nous d\'emontrerons que $p_{n+1} - p_n \ll_{q,\theta} 1$ et $p_n \equiv p_{n+1} \equiv a \bmod q$ pour une infinit\'e de couples $p_n,p_{n+1}$, et nous prouverons \'egalement un r\'esultat quantitatif. Dans la deuxi\`eme partie, nous allons utiliser les techniques de Goldston-Pintz-Y{\i}ld{\i}r{\i}m pour d\'emontrer qu'il existe une infinit\'e de couples de nombres premiers $p,p'$ tels que $(p-1)(p'-1)$ est une carr\'e parfait. Ce resultat est une version approximative d'une ancienne conjecture qui stipule qu'il existe une infinit\'e de nombres premiers $p$ tels que $p-1$ est une carr\'e parfait. En effet, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $n = \ell_1\cdots \ell_r$, avec $\ell_1,\ldots,\ell_r$ des premiers distincts, et tels que $(\ell_1-1)\cdots (\ell_r-1)$ est une puissance $r$-i\`eme, avec $r \ge 2$ quelconque. \'Egalement, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n = \ell_1\cdots \ell_r \le Y$ tels que $(\ell_1+1)\cdots (\ell_r+1)$ est une puissance $r$-i\`eme. Finalement, \'etant donn\'e $A$ un ensemble fini d'entiers non-nuls, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $\prod_{p \mid n} (p+a)$ est une puissance $r$-i\`eme, simultan\'ement pour chaque $a \in A$.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’examiner et d’intervenir auprès des déficits de la mémoire de travail (MdeT) à l’intérieur de deux populations cliniques : la maladie d’Alzheimer (MA) et le trouble cognitif léger (TCL). La thèse se compose de trois articles empiriques. Le but de la première expérimentation était d’examiner les déficits de MdeT dans le vieillissement normal, le TCL et la MA à l’aide de deux versions de l’empan complexe : l’empan de phrases et l’empan arithmétique. De plus, l’effet de «l’oubli» (forgetting) a été mesuré en manipulant la longueur de l’intervalle de rétention. Les résultats aux tâches d’empan complexe indiquent que la MdeT est déficitaire chez les individus atteints de TCL et encore plus chez les gens ayant la MA. Les données recueillies supportent également le rôle de l’oubli à l’intérieur de la MdeT. L’augmentation de l’intervalle de rétention exacerbait le déficit dans la MA et permettait de prédire un pronostic négatif dans le TCL. L’objectif de la deuxième étude était d’examiner la faisabilité d’un programme d’entraînement cognitif à l’ordinateur pour la composante de contrôle attentionnel à l’intérieur de la MdeT. Cette étude a été réalisée auprès de personnes âgées saines et de personnes âgées avec TCL. Les données de cette expérimentation ont révélé des effets positifs de l’entraînement pour les deux groupes de personnes. Toutefois, l’absence d’un groupe contrôle a limité l’interprétation des résultats. Sur la base de ces données, la troisième expérimentation visait à implémenter une étude randomisée à double-insu avec groupe contrôle d’un entraînement du contrôle attentionnel chez des personnes TCL avec atteinte exécutive. Ce protocole impliquait un paradigme de double-tâche composé d’une tâche de détection visuelle et d’une tâche de jugement alpha-arithmétique. Alors que le groupe contrôle pratiquait simplement la double-tâche sur six périodes d’une heure chacune, le groupe expérimental recevait un entraînement de type priorité variable dans lequel les participants devaient gérer leur contrôle attentionnel en variant la proportion de ressources attentionnelles allouée à chaque tâche. Les résultats montrent un effet significatif de l’intervention sur une des deux tâches impliquées (précision à la tâche de détection visuelle) ainsi qu’une tendance au transfert à une autre tâche d’attention divisée, mais peu d’effets de généralisation à d’autres tâches d’attention. En résumé, les données originales rapportées dans la présente thèse démontrent un déficit de la MdeT dans les maladies neurodégénératives liées à l’âge, avec un gradient entre le TCL et la MA. Elles suggèrent également une préservation de la plasticité des capacités attentionnelles chez les personnes à risque de développer une démence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this article, we study reliability measures such as geometric vitality function and conditional Shannon’s measures of uncertainty proposed by Ebrahimi (1996) and Sankaran and Gupta (1999), respectively, for the doubly (interval) truncated random variables. In survival analysis and reliability engineering, these measures play a significant role in studying the various characteristics of a system/component when it fails between two time points. The interrelationships among these uncertainty measures for various distributions are derived and proved characterization theorems arising out of them