964 resultados para Invariant Object Recognition


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent travail de recherche analyse l’acte d’achat et fait une brèche dans la relation mystérieuse que nous développons avec les biens de consommation. En microéconomie et en sociologie de la consommation, on considère que le consommateur fait des choix rationnels, et ce à travers un processus d’achat (Langlois, 2002). Ce processus est divisé en cinq étapes : la reconnaissance du problème, la recherche d’informations, l’évaluation des alternatives en concurrence, le choix et l’analyse post-achat (Brée, 2004). Bien que l’étape du choix soit certainement l’étape charnière du processus, car elle détermine le choix final menant à l’achat, elle est souvent comprise comme l’aboutissement de calculs préalables et non comme un moment régi par ses propres dynamiques. Le paradigme dominant en matière de choix, la théorie du choix rationnel, avance que nous formulons nos choix en recourant à des calculs d’utilité. Nous évaluons rationnellement les options afin d’optimiser notre situation en sélectionnant le choix qui nous rapporte le plus en nous coûtant le moins (Abell, 1991). Par contre, certains critiques de la théorie du choix rationnel allèguent que la multiplicité de choix encouragée par notre société engendre un stress lors de l’achat qui embrouille le jugement menant au choix. Cela invite à considérer la singularité du moment menant au choix. Que se passe-t-il chez le consommateur lorsqu’il est mis en présence d’un objet? En vérité, les disciplines qui s’intéressent au comportement du consommateur éludent la présence de l’objet comme forme d’influence sur le jugement. Dans le cadre de cette recherche, nous entendons par la mise en présence le moment où un individu est en présence d’un objet spécifique ou d’une représentation d’un objet. Lorsque mis en présence de l’objet, le consommateur fera un jugement qui sera potentiellement relatif aux sensations de beauté (Hutcheson, 1991) et aux émotions provoquées par un objet spécifique. Ainsi, les sens « externes » (la vue, l’ouïe, l’odorat, le goût, le toucher) stimulent un sens « esthétique » : le sens interne de la beauté (Hutcheson, 1991). De plus, il peut survenir, en consommation, lors de la mise en présence que l’émotion prenne la forme d’un jugement (Nussbaum, 2001). On définit les émotions comme un état affectif situationnel dirigé vers une chose (Desmet, 2002). C’est ainsi que la recherche s’est articulé autour de l’hypothèse suivante : de quelle manière la mise en présence influence le jugement du consommateur pendant le processus d’achat? Nous avons mené une enquête inspirée d’une approche qualitative auprès de consommateurs dont les résultats sont ici exposés et discutés. L’enquête tente dans un premier temps de cerner l’impact de la mise en présence dans le processus d’achat. Puis, le récit de magasinage de quatre participants est analysé à l’aide d’éléments tels les critères de choix, les facteurs, les influences et les contraintes. L’enquête montre notamment que la mise en présence intervient et modifie le jugement du consommateur. L’analyse des entretiens met en avant une tendance chez nos participants à la scénarisation tout au long du processus d’achat et particulièrement lors des moments de mise en présence. Nous avons observé que les moments de mise en présence alimentent le scénario imaginé par le consommateur et lui permet de créer des scénarios de vie future en interaction avec certains biens de consommation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les humains communiquent via différents types de canaux: les mots, la voix, les gestes du corps, des émotions, etc. Pour cette raison, un ordinateur doit percevoir ces divers canaux de communication pour pouvoir interagir intelligemment avec les humains, par exemple en faisant usage de microphones et de webcams. Dans cette thèse, nous nous intéressons à déterminer les émotions humaines à partir d’images ou de vidéo de visages afin d’ensuite utiliser ces informations dans différents domaines d’applications. Ce mémoire débute par une brève introduction à l'apprentissage machine en s’attardant aux modèles et algorithmes que nous avons utilisés tels que les perceptrons multicouches, réseaux de neurones à convolution et autoencodeurs. Elle présente ensuite les résultats de l'application de ces modèles sur plusieurs ensembles de données d'expressions et émotions faciales. Nous nous concentrons sur l'étude des différents types d’autoencodeurs (autoencodeur débruitant, autoencodeur contractant, etc) afin de révéler certaines de leurs limitations, comme la possibilité d'obtenir de la coadaptation entre les filtres ou encore d’obtenir une courbe spectrale trop lisse, et étudions de nouvelles idées pour répondre à ces problèmes. Nous proposons également une nouvelle approche pour surmonter une limite des autoencodeurs traditionnellement entrainés de façon purement non-supervisée, c'est-à-dire sans utiliser aucune connaissance de la tâche que nous voulons finalement résoudre (comme la prévision des étiquettes de classe) en développant un nouveau critère d'apprentissage semi-supervisé qui exploite un faible nombre de données étiquetées en combinaison avec une grande quantité de données non-étiquetées afin d'apprendre une représentation adaptée à la tâche de classification, et d'obtenir une meilleure performance de classification. Finalement, nous décrivons le fonctionnement général de notre système de détection d'émotions et proposons de nouvelles idées pouvant mener à de futurs travaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Symbole de modernité pendant la majeure partie du XXe siècle, la cigarette est depuis une trentaine d’années la cible d’interventions croissantes visant à réduire sa consommation. La lutte contre le tabac bénéficie d’un dispositif sans précédent qui fait office de cas d’école en santé publique, par son ampleur et par l’adhésion qu’il suscite. L’intérêt d’étudier cet objet réside ainsi dans la propriété essentielle de la lutte anti-tabac de relier un dispositif institutionnel et des motivations subjectives. Le dispositif anti-tabac (DAT) a en effet vocation à faire converger les prescriptions normatives d’un ensemble d’institutions et les désirs individuels, et y parvient manifestement dans une certaine mesure. Il permet dès lors d’aborder à la fois un travail sur les sociétés et un travail sur soi. Cette thèse entreprend une analyse sociologique du dispositif anti-tabac au Québec et vise à interroger les modalités et les fins de ce contrôle public de la consommation de tabac, en mettant au jour ses dimensions culturelles, symboliques et politiques. La santé publique apparaissant de nos jours comme lieu central de l’espace politique et social dans les sociétés contemporaines (Fassin et Dozon, 2001 :7), l’utopie d’un « monde sans fumée » se révèle selon nous tout à fait typique des enjeux qui caractérisent la modernité avancée ou « société du risque » (Beck, 2001, [1986]). Après avoir présenté le rapport historiquement ambivalent des pays occidentaux au tabac et ses enjeux, puis problématisé la question de la consommation de substances psychotropes dans le cadre d’une production et d’une construction sociale et culturelle (Fassin, 2005a), nous inscrivons le DAT dans le cadre d’une biopolitique de la population (Foucault, 1976; 1997; 2004b). À l’aune des enseignements de Michel Foucault, cette thèse consiste ainsi en l’analyse de discours croisée du dispositif institutionnel anti-tabac et de témoignages d’individus désirant arrêter de fumer, au regard du contexte social et politique de la société moderne avancée. Le DAT illustre les transformations à l’œuvre dans le champ de la santé publique, elles-mêmes caractéristiques d’une reconfiguration des modes de gouvernement des sociétés modernes avancées. La nouvelle biopolitique s’adresse en effet à des sujets libres et entreprend de produire des citoyens responsables de leur devenir biologique, des sujets de l’optimisation de leurs conditions biologiques. Elle s’appuie sur une culpabilité de type « néo-chrétien » (Quéval, 2008) qui caractérise notamment un des leviers fondamentaux du DAT. Ce dernier se caractérise par une lutte contre les fumeurs plus que contre le tabac. Il construit la figure du non-fumeur comme celle d’un individu autonome, proactif et performant et fait simultanément de l’arrêt du tabac une obligation morale. Par ce biais, il engage son public à se subjectiver comme citoyen biologique, entrepreneur de sa santé. L’analyse du DAT au Québec révèle ainsi une (re)moralisation intensive des questions de santé, par le biais d’une biomédicalisation des risques (Clarke et al., 2003; 2010), particulièrement représentative d’un nouveau mode d’exercice de l’autorité et de régulation des conduites dans les sociétés contemporaines, assimilée à une gouvernementalité néolibérale. Enfin, l’analyse de témoignages d’individus engagés dans une démarche d’arrêt du tabac révèle la centralité de la santé dans le processus contemporain d’individuation. La santé publique apparait alors comme une institution socialisatrice produisant un certain « type d’homme » centré sur sa santé et adapté aux exigences de performance et d’autonomie prévalant, ces éléments constituant désormais de manière croissante des clés d’intégration et de reconnaissance sociale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le virus de l’hépatite C (VHC) est un virus à ARN simple brin positif (ssARN) qui se replique dans le foie. Deux cents millions de personnes sont infectées par le virus dans le monde et environ 80% d’entre elles progresseront vers un stade chronique de l’infection. Les thérapies anti-virales actuelles comme l’interféron (IFN) ou la ribavirin sont de plus en plus utilisées mais ne sont efficaces que dans la moitié des individus traités et sont souvent accompagnées d’une toxicité ou d’effets secondaires indésirables. Le système immunitaire inné est essentiel au contrôle des infections virales. Les réponses immunitaires innées sont activées suite à la reconnaissance par les Pathogen Recognition Receptors (PRRs), de motifs macromoléculaires dérivés du virus appelés Pathogen-Associated Molecular Patterns (PAMPs). Bien que l'activation du système immunitaire par l'ARN ou les protéines du VHC ait été largement étudiée, très peu de choses sont actuellement connues concernant la détection du virus par le système immunitaire inné. Et même si l’on peut très rapidement déceler des réponses immunes in vivo après infection par le VHC, l’augmentation progressive et continue de la charge virale met en évidence une incapacité du système immunitaire à contrôler l’infection virale. Une meilleure compréhension des mécanismes d’activation du système immunitaire par le VHC semble, par conséquent, essentielle au développement de stratégies antivirales plus efficaces. Dans le présent travail nous montrons, dans un modèle de cellule primaire, que le génome ARN du VHC contient des séquences riches en GU capables de stimuler spécifiquement les récepteurs de type Toll (TLR) 7 et 8. Cette stimulation a pour conséquence la maturation des cellules dendritiques plasmacytoïdes (pDCs), le production d’interféron de type I (IFN) ainsi que l’induction de chémokines et cytokines inflammatoires par les différentes types de cellules présentatrices d’antigènes (APCs). Les cytokines produites après stimulation de monocytes ou de pDCs par ces séquences ssARN virales, inhibent la production du virus de façon dépendante de l’IFN. En revanche, les cytokines produites après stimulation de cellules dendritiques myéloïdes (mDCs) ou de macrophages par ces mêmes séquences n’ont pas d’effet inhibiteur sur la production virale car les séquences ssARN virales n’induisent pas la production d’IFN par ces cellules. Les cytokines produites après stimulation des TLR 7/8 ont également pour effet de diminuer, de façon indépendante de l’IFN, l’expression du récepteur au VHC (CD81) sur la lignée cellulaire Huh7.5, ce qui pourrait avoir pour conséquence de restreindre l’infection par le VHC. Quoiqu’il en soit, même si les récepteurs au VHC comme le CD81 sont largement exprimés à la surface de différentes sous populations lymphocytaires, les DCs et les monocytes ne répondent pas aux VHC, Nos résultats indiquent que seuls les macrophages sont capables de reconnaître le VHC et de produire des cytokines inflammatoires en réponse à ce dernier. La reconnaissance du VHC par les macrophages est liée à l’expression membranaire de DC-SIGN et l’engagement des TLR 7/8 qui en résulte. Comme d’autres agonistes du TLR 7/8, le VHC stimule la production de cytokines inflammatoires (TNF-α, IL-8, IL-6 et IL-1b) mais n’induit pas la production d’interféron-beta par les macrophages. De manière attendue, la production de cytokines par des macrophages stimulés par les ligands du TLR 7/8 ou les séquences ssARN virales n’inhibent pas la réplication virale. Nos résultats mettent en évidence la capacité des séquences ssARN dérivées du VHC à stimuler les TLR 7/8 dans différentes populations de DC et à initier une réponse immunitaire innée qui aboutit à la suppression de la réplication virale de façon dépendante de l’IFN. Quoiqu’il en soit, le VHC est capable d’échapper à sa reconnaissance par les monocytes et les DCs qui ont le potentiel pour produire de l’IFN et inhiber la réplication virale après engagement des TLR 7/8. Les macrophages possèdent quant à eux la capacité de reconnaître le VHC grâce en partie à l’expression de DC-SIGN à leur surface, mais n’inhibent pas la réplication du virus car ils ne produisent pas d’IFN. L’échappement du VHC aux défenses antivirales pourrait ainsi expliquer l’échec du système immunitaire inné à contrôler l’infection par le VHC. De plus, la production de cytokines inflammatoires observée après stimulation in vitro des macrophages par le VHC suggère leur potentielle contribution dans l’inflammation que l’on retrouve chez les individus infectés par le VHC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A measure of association is row-size invariant if it is unaffected by the multiplication of all entries in a row of a cross-classification table by a same positive number. It is class-size invariant if it is unaffected by the multiplication of all entries in a class (i.e., a row or a column). We prove that every class-size invariant measure of association as-signs to each m x n cross-classification table a number which depends only on the cross-product ratios of its 2 x 2 subtables. We propose a monotonicity axiom requiring that the degree of association should increase after shifting mass from cells of a table where this mass is below its expected value to cells where it is above .provided that total mass in each class remains constant. We prove that no continuous row-size invariant measure of association is monotonic if m ≥ 4. Keywords: association, contingency tables, margin-free measures, size invariance, monotonicity, transfer principle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un algorithme permettant de discrétiser les équations aux dérivées partielles (EDP) tout en préservant leurs symétries de Lie est élaboré. Ceci est rendu possible grâce à l'utilisation de dérivées partielles discrètes se transformant comme les dérivées partielles continues sous l'action de groupes de Lie locaux. Dans les applications, beaucoup d'EDP sont invariantes sous l'action de transformations ponctuelles de Lie de dimension infinie qui font partie de ce que l'on désigne comme des pseudo-groupes de Lie. Afin d'étendre la méthode de discrétisation préservant les symétries à ces équations, une discrétisation des pseudo-groupes est proposée. Cette discrétisation a pour effet de transformer les symétries ponctuelles en symétries généralisées dans l'espace discret. Des schémas invariants sont ensuite créés pour un certain nombre d'EDP. Dans tous les cas, des tests numériques montrent que les schémas invariants approximent mieux leur équivalent continu que les différences finies standard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

For the discrete-time quadratic map xt+1=4xt(1-xt) the evolution equation for a class of non-uniform initial densities is obtained. It is shown that in the t to infinity limit all of them approach the invariant density for the map.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

It is shown that the invariant integral, viz., the Kolmogorov second entropy, is eminently suited to characterize EEG quantitatively. The estimation obtained for a "clinically normal" brain is compared with a previous result obtained from the EEG of a person under epileptic seizure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Development of organic molecules that exhibit selective interactions with different biomolecules has immense significance in biochemical and medicinal applications. In this context, our main objective has been to design a few novel functionaIized molecules that can selectively bind and recognize nucleotides and DNA in the aqueous medium through non-covalent interactions. Our strategy was to design novel cycIophane receptor systems based on the anthracene chromophore linked through different bridging moieties and spacer groups. It was proposed that such systems would have a rigid structure with well defined cavity, wherein the aromatic chromophore can undergo pi-stacking interactions with the guest molecules. The viologen and imidazolium moieties have been chosen as bridging units, since such groups, can in principle, could enhance the solubility of these derivatives in the aqueous medium as well as stabilize the inclusion complexes through electrostatic interactions.We synthesized a series of water soluble novel functionalized cyclophanes and have investigated their interactions with nucleotides, DNA and oligonucIeotides through photophysical. chiroptical, electrochemical and NMR techniques. Results indicate that these systems have favorable photophysical properties and exhibit selective interactions with ATP, GTP and DNA involving electrostatic. hydrophobic and pi-stacking interactions inside the cavity and hence can have potential use as probes in biology.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The detection of buried objects using time-domain freespace measurements was carried out in the near field. The location of a hidden object was determined from an analysis of the reflected signal. This method can be extended to detect any number of objects. Measurements were carried out in the X- and Ku-bands using ordinary rectangular pyramidal horn antennas of gain 15 dB. The same antenna was used as the transmitter and recei er. The experimental results were compared with simulated results by applying the two-dimensional finite-difference time-domain(FDTD)method, and agree well with each other. The dispersi e nature of the dielectric medium was considered for the simulation.