976 resultados para Diffusion half-time
Resumo:
Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
La concentration locale des messagers chimiques sécrétés par les cellules peut être mesurée afin de mieux comprendre les mécanismes moléculaires liés à diverses maladies, dont les métastases du cancer. De nouvelles techniques analytiques sont requises pour effectuer ces mesures locales de marqueurs biologiques à proximité des cellules. Ce mémoire présentera le développement d’une nouvelle technique basée sur la réponse plasmonique sur des leviers AFM, permettant d’étudier les réactions chimiques et biologiques à la surface des leviers grâce au phénomène de résonance des plasmons de surface (SPR), ainsi qu’à la diffusion Raman exaltée par effet de pointe (TERS). En effet, il est possible de localiser l’amplification du signal Raman à la pointe d’un levier AFM, tout comme le principe de la diffusion Raman exaltée par effet de surface (SERS) basée sur la diffusion de la lumière par des nanoparticules métalliques, et permettant une large amplification du signal Raman. La surface du levier est recouverte d’une nano-couche métallique d’or, suivi par des réactions biologiques pour l’immobilisation d’un récepteur moléculaire, créant ainsi un biocapteur sur la pointe du levier. Une détection secondaire utilisant des nanoparticules d’or conjuguées à un anticorps secondaire permet également une amplification du signal SPR et Raman lors de la détection d’antigène. Ce mémoire démontrera le développement et la validation de la détection de l’immunoglobuline G (IgG) sur la pointe du levier AFM.Dans des projets futurs, cette nouvelle technique d’instrumentation et d’imagerie sera optimisée grâce à la création d’un micro-détecteur protéique généralement adapté pour l’étude de la communication cellulaire. En intégrant le signal SPR à la microscopie AFM, il sera alors possible de développer des biocapteurs SPR couplés à une sonde à balayage, ce qui permettra d’effectuer une analyse topographique et de l’environnement chimique d’échantillons cellulaires en temps réel, pour la mesure des messagers moléculaires sécrétés dans la matrice extracellulaire, lors de la communication cellulaire.
Resumo:
Introduction. Les programmes de vélos en libre-service (PVLS) représentent une innovation en transport actif. À ce jour, la sensibilisation à cette innovation en tant que prérequis à l’accessibilité n’a jamais été étudiée. Objectif. Identifier les facteurs liés à l’absence de sensibilisation à l’existence du PVLS à Montréal. Méthode. 7011 Montréalais âgés de 18 ans et plus ont été interrogés au cours de 3 sondages téléphoniques sur une période couvrant deux saisons : avant la première saison (n=2000), après la première saison (n=2502) et après la deuxième saison (n=2509). Des analyses de régression logistique ont été réalisées sur 93,6 % (n=6562) de l’échantillon pour examiner l’effet du temps, de la proximité des stations de vélos et du niveau d’éducation sur l’absence de sensibilisation à l’existence du PVLS. Résultats. Nous constatons que, après la première saison d’implantation du PVLS, la probabilité d’absence de sensibilisation au PVLS est plus élevée chez les individus dont le niveau d’éducation est faible que chez ceux dont le niveau d’éducation est élevé (RC = 1,60; 95 % IC : 1,18; 2,19). Aussi, nous observons que, après la deuxième saison d’implantation, la probabilité d’absence de sensibilisation au PVLS est plus élevée chez les individus dont le niveau d’éducation est faible et qui vivent dans un voisinage pourvu d’un PVLS, que chez ceux dont le niveau d’éducation est élevé et qui vivent dans un voisinage dépourvu d’un PVLS (RC = 1,63, 95 % IC : 1,01; 2,64). Conclusion. Malgré l’accessibilité au PVLS dans un voisinage, des inégalités sociales persistent.
Resumo:
Les cultes isiaques se répandent autour du bassin méditerranéen entre le IVe s. av. et la fin du IVe s. apr. J.-C., arrivant à Rome au Ier siècle av. notre ère et y disparaissant conjointement aux cultes païens traditionnels avec ou peu après le coup porté par Théodose. Leur diffusion romaine s’étale donc sur une grande partie de l’histoire de l’Empire d’Occident, et ils vont ainsi se retrouver face à l’homme désormais considéré comme primus inter pares, grâce à l’accumulation de ses pouvoirs. L’empereur est pontifex maximus, c’est-à-dire maitre des cultes publics et du droit religieux, et il est ainsi l’agent du pouvoir qui a le potentiel religieux et législatif pour avoir un discours varié sur les autres traditions religieuses. Il semble donc inévitable que la sphère cultuelle isiaque rencontre et interagisse avec la sphère religieuse traditionnelle romaine, et que certains empereurs interfèrent, par renforcement ou au contraire par opposition, avec les cultes isiaques arrivés peu de temps avant l’avènement du pouvoir impérial. Cette thèse se propose non seulement d’étudier la dialectique entre institué romain (la force d’inertie) et instituant isiaque (la force de changements) dans la direction d’une potentielle altérité incluse (soit le dialogue évolutif du Nous par rapport à l’Autre), mais notamment par les liens publics romains et évolutifs entre l’empereur et les divinités isiaques. Nous effectuons cette recherche grâce à quatre types de sources antiques : la littérature pour le point de vue de l’élite littéraire gréco-romaine ; les inscriptions isiaques pour une définition surtout populaire de l’identité évolutive de l’instituant isiaque ; les monnaies et les oeuvres monumentales pour le point de vue public (et parfois plus personnel) impérial. Nous concentrons notre étude à partir de la dynastie sévérienne, qui laisse supposer que les cultes romano-orientaux profitent de la nouvelle configuration impériale avec des empereurs originaires d’Afrique et d’Orient, dans un phénomène d’« impérialisation » isiaque intensifié par un engagement tant impérial que populaire. En outre, nous nuancerons les conséquences sur la diffusion isiaque des troubles qui surviennent dans la deuxième moitié du IIIe siècle. Enfin, le IVe siècle, avec la christianisation de l’Empire et donc un christianisme devenant institué, ouvre sur une analyse des débats entre les défenseurs actifs du paganisme et les auteurs chrétiens, et de là, vers des interrogations sur l’intervention de la sphère isiaque dans ce face-à-face.
Resumo:
The study of simple chaotic maps for non-equilibrium processes in statistical physics has been one of the central themes in the theory of chaotic dynamical systems. Recently, many works have been carried out on deterministic diffusion in spatially extended one-dimensional maps This can be related to real physical systems such as Josephson junctions in the presence of microwave radiation and parametrically driven oscillators. Transport due to chaos is an important problem in Hamiltonian dynamics also. A recent approach is to evaluate the exact diffusion coefficient in terms of the periodic orbits of the system in the form of cycle expansions. But the fact is that the chaotic motion in such spatially extended maps has two complementary aspects- - diffusion and interrnittency. These are related to the time evolution of the probability density function which is approximately Gaussian by central limit theorem. It is noticed that the characteristic function method introduced by Fujisaka and his co-workers is a very powerful tool for analysing both these aspects of chaotic motion. The theory based on characteristic function actually provides a thermodynamic formalism for chaotic systems It can be applied to other types of chaos-induced diffusion also, such as the one arising in statistics of trajectory separation. It was noted that there is a close connection between cycle expansion technique and characteristic function method. It was found that this connection can be exploited to enhance the applicability of the cycle expansion technique. In this way, we found that cycle expansion can be used to analyse the probability density function in chaotic maps. In our research studies we have successfully applied the characteristic function method and cycle expansion technique for analysing some chaotic maps. We introduced in this connection, two classes of chaotic maps with variable shape by generalizing two types of maps well known in literature.
Resumo:
In this paper we find that the diffusion pattern of mobile telephony in Colombia can be best characterised as following a Logistic curve. Although in recent years the rate of growth of mobile phone subscribers has started to slow down, we find evidence that there is still room for further expansion as the saturation level is expected to be reached in five years time. The estimated saturation level is consistent with some individuals possessing more than one mobile device.
Resumo:
Diffusive isotopic fractionation factors are important in order to understand natural processes and have practical application in radioactive waste storage and carbon dioxide sequestration. We determined the isotope fractionation factors and the effective diffusion coefficients of chloride and bromide ions during aqueous diffusion in polyacrylamide gel. Diffusion was determined as functions of temperature, time and concentration. The effect of temperature is relatively large on the diffusion coefficient (D) but only small on isotope fractionation. For chlorine, the ratio, D-35cl/D-37cl varied from 1.00128 +/- 0.00017 (1 sigma) at 2 degrees C to 1.00192 +/- 0.00015 at 80 degrees C. For bromine, D-79Br/D-81Br varied from 1.00098 +/- 0.00009 at 2 degrees C to 1.0064 +/- 0.00013 at 21 degrees C and 1.00078 +/- 0.00018 (1 sigma) at 80 degrees C. There were no significant effects on the isotope fractionation due to concentration. The lack of sensitivity of the diffusive isotope fractionation to anything at the most common temperatures (0 to 30 C) makes it particularly valuable for application to understanding processes in geological environments and an important natural tracer in order to understand fluid transport processes. (C) 2009 Elsevier Ltd. All rights reserved.
Resumo:
An investigation is made of the impact of a full linearized physical (moist) parameterization package on extratropical singular vectors (SVs) using the ECMWF integrated forecasting system (IFS). Comparison is made for one particular period with a dry physical package including only vertical diffusion and surface drag. The crucial extra ingredient in the full package is found to be the large-scale latent heat release. Consistent with basic theory, its inclusion results in a shift to smaller horizontal scales and enhanced growth for the SVs. Whereas, for the dry SVs, T42 resolution is sufficient, the moist SVs require T63 to resolve their structure and growth. A 24-h optimization time appears to be appropriate for the moist SVs because of the larger growth of moist SVs compared with dry SVs. Like dry SVs, moist SVs tend to occur in regions of high baroclinicity, but their location is also influenced by the availability of moisture. The most rapidly growing SVs appear to enhance or reduce large-scale rain in regions ahead of major cold fronts. The enhancement occurs in and ahead of a cyclonic perturbation and the reduction in and ahead of an anticyclonic perturbation. Most of the moist SVs for this situation are slightly modified versions of the dry SVs. However, some occur in new locations and have particularly confined structures. The most rapidly growing SV is shown to exhibit quite linear behavior in the nonlinear model as it grows from 0.5 to 12 hPa in 1 day. For 5 times this amplitude the structure is similar but the growth is about half as the perturbation damps a potential vorticity (PV) trough or produces a cutoff, depending on its sign.
Resumo:
We consider boundary value problems for the elliptic sine-Gordon equation posed in the half plane y > 0. This problem was considered in Gutshabash and Lipovskii (1994 J. Math. Sci. 68 197–201) using the classical inverse scattering transform approach. Given the limitations of this approach, the results obtained rely on a nonlinear constraint on the spectral data derived heuristically by analogy with the linearized case. We revisit the analysis of such problems using a recent generalization of the inverse scattering transform known as the Fokas method, and show that the nonlinear constraint of Gutshabash and Lipovskii (1994 J. Math. Sci. 68 197–201) is a consequence of the so-called global relation. We also show that this relation implies a stronger constraint on the spectral data, and in particular that no choice of boundary conditions can be associated with a decaying (possibly mod 2π) solution analogous to the pure soliton solutions of the usual, time-dependent sine-Gordon equation. We also briefly indicate how, in contrast to the evolutionary case, the elliptic sine-Gordon equation posed in the half plane does not admit linearisable boundary conditions.
Resumo:
We solve an initial-boundary problem for the Klein-Gordon equation on the half line using the Riemann-Hilbert approach to solving linear boundary value problems advocated by Fokas. The approach we present can be also used to solve more complicated boundary value problems for this equation, such as problems posed on time-dependent domains. Furthermore, it can be extended to treat integrable nonlinearisations of the Klein-Gordon equation. In this respect, we briefly discuss how our results could motivate a novel treatment of the sine-Gordon equation.
Resumo:
An analysis was made that calculated the risk of disease for premises in the most heavily affected parts of the county of Cumbria during the foot-and-mouth disease epidemic in the UK in 2001. In over half the cases the occurrence of the disease was not directly attributable to a recently infected premises being located within 1.5 km. Premises more than 1.5 km from recently infected premises faced sufficiently high infection risks that culling within a 1.5 km radius of the infected premises alone could not have prevented the progress of the epidemic. A comparison of the final outcome in two areas of the county, south Penrith and north Cumbria, indicated that focusing on controlling the potential spread of the disease over short distances by culling premises contiguous to infected premises, while the disease continued to spread over longer distances, may have resulted in excessive numbers of premises being culled. Even though the contiguous cull in south Penrith appeared to have resulted in a smaller proportion of premises becoming infected, the overall proportion of premises culled was considerably greater than in north Cumbria, where, because of staff and resource limitations, a smaller proportion of premises contiguous to infected premises was culled
Resumo:
Time-resolved kinetic studies of the reaction of silylene, SiH2, with H2O and with D2O have been carried out in the gas phase at 296 and at 339 K, using laser flash photolysis to generate and monitor SiH2. The reaction was studied over the pressure range 10-200 Torr with SF6 as bath gas. The second-order rate constants obtained were pressure dependent, indicating that the reaction is a third-body assisted association process. Rate constants at 339 K were about half those at 296 K. Isotope effects, k(H)/k(D), were small averaging 1.076 0.080, suggesting no involvement of H- (or D-) atom transfer in the rate determining step. RRKM modeling was undertaken based on a transition state appropriate to formation of the expected zwitterionic donoracceptor complex, H2Si...OH2. Because the reaction is close to the low pressure (third order) region, it is difficult to be definitive about the activated complex structure. Various structures were tried, both with and without the incorporation of rotational modes, leading to values for the high-pressure limiting (i.e., true secondorder) rate constant in the range 9.5 x 10(-11) to 5 x 10(-10) cm(3) molecule' s(-1). The RRKM modeling and mechanistic interpretation is supported by ab initio quantum calculations carried out at the G2 and G3 levels. The results are compared and contrasted with the previous studies.
Resumo:
An information processing paradigm in the brain is proposed, instantiated in an artificial neural network using biologically motivated temporal encoding. The network will locate within the external world stimulus, the target memory, defined by a specific pattern of micro-features. The proposed network is robust and efficient. Akin in operation to the swarm intelligence paradigm, stochastic diffusion search, it will find the best-fit to the memory with linear time complexity. information multiplexing enables neurons to process knowledge as 'tokens' rather than 'types'. The network illustrates possible emergence of cognitive processing from low level interactions such as memory retrieval based on partial matching. (C) 2007 Elsevier B.V. All rights reserved.
Resumo:
The Stochastic Diffusion Search (SDS) was developed as a solution to the best-fit search problem. Thus, as a special case it is capable of solving the transform invariant pattern recognition problem. SDS is efficient and, although inherently probabilistic, produces very reliable solutions in widely ranging search conditions. However, to date a systematic formal investigation of its properties has not been carried out. This thesis addresses this problem. The thesis reports results pertaining to the global convergence of SDS as well as characterising its time complexity. However, the main emphasis of the work, reports on the resource allocation aspect of the Stochastic Diffusion Search operations. The thesis introduces a novel model of the algorithm, generalising an Ehrenfest Urn Model from statistical physics. This approach makes it possible to obtain a thorough characterisation of the response of the algorithm in terms of the parameters describing the search conditions in case of a unique best-fit pattern in the search space. This model is further generalised in order to account for different search conditions: two solutions in the search space and search for a unique solution in a noisy search space. Also an approximate solution in the case of two alternative solutions is proposed and compared with predictions of the extended Ehrenfest Urn model. The analysis performed enabled a quantitative characterisation of the Stochastic Diffusion Search in terms of exploration and exploitation of the search space. It appeared that SDS is biased towards the latter mode of operation. This novel perspective on the Stochastic Diffusion Search lead to an investigation of extensions of the standard SDS, which would strike a different balance between these two modes of search space processing. Thus, two novel algorithms were derived from the standard Stochastic Diffusion Search, ‘context-free’ and ‘context-sensitive’ SDS, and their properties were analysed with respect to resource allocation. It appeared that they shared some of the desired features of their predecessor but also possessed some properties not present in the classic SDS. The theory developed in the thesis was illustrated throughout with carefully chosen simulations of a best-fit search for a string pattern, a simple but representative domain, enabling careful control of search conditions.