907 resultados para computational neuroscience
Resumo:
Les suspensivores ont la tâche importante de séparer les particules de l'eau. Bien qu'une grande gamme de morphologies existe pour les structures d'alimentation, elles sont pratiquement toutes constituées de rangées de cylindres qui interagissent avec leur environnement fluide. Le mécanisme de capture des particules utilisé dépend des contraintes morphologiques, des besoins énergétiques et des conditions d'écoulement. Comme nos objectifs étaient de comprendre ces relations, nous avons eu recours à des études de comparaison pour interpréter les tendances en nature et pour comprendre les conditions qui provoquent de nouveaux fonctionnements. Nous avons utilisé la dynamique des fluides numérique (computational fluid dynamics, CFD) pour créer des expériences contrôlées et pour simplifier les analyses. Notre première étude démontre que les coûts énergétiques associés au pompage dans les espaces petits sont élevés. De plus, le CFD suggère que les fentes branchiales des ptérobranches sont des structures rudimentaires, d'un ancêtre plus grande. Ce dernier point confirme l'hypothèse qu'un ver se nourrit par filtration tel que l'ancêtre des deuterostomes. Notre deuxième étude détermine la gamme du nombre de Reynolds number critique où la performance d'un filtre de balane change. Quand le Re est très bas, les différences morphologiques n'ont pas un grand effet sur le fonctionnement. Cependant, une pagaie devient une passoire lorsque le Re se trouve entre 1 et 3,5. Le CFD s’est dévoilé être un outil très utile qui a permis d’obtenir des détails sur les microfluides. Ces études montrent comment la morphologie et les dynamiques des fluides interagissent avec la mécanisme de capture ou de structures utilisées, ainsi que comment des petits changements de taille, de forme, ou de vitesse d'écoulement peuvent conduire à un nouveau fonctionnement.
Resumo:
Commentaire / Commentary
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.
L’intégration de la prise de décision visuo-motrice et d’action motrice dans des conditions ambiguës
Resumo:
La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.
Resumo:
Thunderstorm is one of the most spectacular weather phenomena in the atmosphere. Many parts over the Indian region experience thunderstorms at higher frequency during pre-monsoon months (March- May), when the atmosphere is highly unstable because of high temperatures prevailing at lower levels. Most dominant feature of the weather during the pre-monsoon season over the eastern Indo-Gangetic plain and northeast India is the outburst of severe local convective storms, commonly known as ‘Nor’wester’ or ‘Kalbaishakhi’. The severe thunderstorms associated with thunder, squall line, lightning and hail cause extensive losses in agriculture, damage to structure and also loss of life. The casualty due to lightning associated with thunderstorms in this region is the highest in the world. The highest numbers of aviation hazards are reported during occurrence of these thunderstorms. In India, 72% of tornadoes are associated with this thunderstorm.
Resumo:
Interfacings of various subjects generate new field ofstudy and research that help in advancing human knowledge. One of the latest of such fields is Neurotechnology, which is an effective amalgamation of neuroscience, physics, biomedical engineering and computational methods. Neurotechnology provides a platform to interact physicist; neurologist and engineers to break methodology and terminology related barriers. Advancements in Computational capability, wider scope of applications in nonlinear dynamics and chaos in complex systems enhanced study of neurodynamics. However there is a need for an effective dialogue among physicists, neurologists and engineers. Application of computer based technology in the field of medicine through signal and image processing, creation of clinical databases for helping clinicians etc are widely acknowledged. Such synergic effects between widely separated disciplines may help in enhancing the effectiveness of existing diagnostic methods. One of the recent methods in this direction is analysis of electroencephalogram with the help of methods in nonlinear dynamics. This thesis is an effort to understand the functional aspects of human brain by studying electroencephalogram. The algorithms and other related methods developed in the present work can be interfaced with a digital EEG machine to unfold the information hidden in the signal. Ultimately this can be used as a diagnostic tool.
Resumo:
FT-IR spectrum of quinoline-2-carbaldehyde benzoyl hydrazone (HQb H2O) was recorded and analyzed. The synthesis and crystal structure data are also described. The vibrational wavenumbers were examined theoretically using the Gaussian03 package of programs using HF/6-31G(d) and B3LYP/6-31G(d) levels of theory. The data obtained from vibrational wavenumber calculations are used to assign vibrational bands obtained in infrared spectroscopy of the studied molecule. The first hyperpolarizability, infrared intensities and Raman activities are reported. The calculated first hyperpolarizability is comparable with the reported values of similar derivatives and is an attractive object for future studies of non-linear optics. The geometrical parameters of the title compound obtained from XRD studies are in agreement with the calculated values. The changes in the CAN bond lengths suggest an extended p-electron delocalization over quinoline and hydrazone moieties which is responsible for the non-linearity of the molecule
Resumo:
Software systems are progressively being deployed in many facets of human life. The implication of the failure of such systems, has an assorted impact on its customers. The fundamental aspect that supports a software system, is focus on quality. Reliability describes the ability of the system to function under specified environment for a specified period of time and is used to objectively measure the quality. Evaluation of reliability of a computing system involves computation of hardware and software reliability. Most of the earlier works were given focus on software reliability with no consideration for hardware parts or vice versa. However, a complete estimation of reliability of a computing system requires these two elements to be considered together, and thus demands a combined approach. The present work focuses on this and presents a model for evaluating the reliability of a computing system. The method involves identifying the failure data for hardware components, software components and building a model based on it, to predict the reliability. To develop such a model, focus is given to the systems based on Open Source Software, since there is an increasing trend towards its use and only a few studies were reported on the modeling and measurement of the reliability of such products. The present work includes a thorough study on the role of Free and Open Source Software, evaluation of reliability growth models, and is trying to present an integrated model for the prediction of reliability of a computational system. The developed model has been compared with existing models and its usefulness of is being discussed.
8th International Conference on Conceptual Structures: logical, linguistic, and computational issues
Resumo:
A computational model of observation in quantum mechanics is presented. The model provides a clean and simple computational paradigm which can be used to illustrate and possibly explain some of the unintuitive and unexpected behavior of some quantum mechanical systems. As examples, the model is used to simulate three seminal quantum mechanical experiments. The results obtained agree with the predictions of quantum mechanics (and physical measurements), yet the model is perfectly deterministic and maintains a notion of locality.
Resumo:
The central thesis of this report is that human language is NP-complete. That is, the process of comprehending and producing utterances is bounded above by the class NP, and below by NP-hardness. This constructive complexity thesis has two empirical consequences. The first is to predict that a linguistic theory outside NP is unnaturally powerful. The second is to predict that a linguistic theory easier than NP-hard is descriptively inadequate. To prove the lower bound, I show that the following three subproblems of language comprehension are all NP-hard: decide whether a given sound is possible sound of a given language; disambiguate a sequence of words; and compute the antecedents of pronouns. The proofs are based directly on the empirical facts of the language user's knowledge, under an appropriate idealization. Therefore, they are invariant across linguistic theories. (For this reason, no knowledge of linguistic theory is needed to understand the proofs, only knowledge of English.) To illustrate the usefulness of the upper bound, I show that two widely-accepted analyses of the language user's knowledge (of syntactic ellipsis and phonological dependencies) lead to complexity outside of NP (PSPACE-hard and Undecidable, respectively). Next, guided by the complexity proofs, I construct alternate linguisitic analyses that are strictly superior on descriptive grounds, as well as being less complex computationally (in NP). The report also presents a new framework for linguistic theorizing, that resolves important puzzles in generative linguistics, and guides the mathematical investigation of human language.
Resumo:
A fundamental question in visual neuroscience is how to represent image structure. The most common representational schemes rely on differential operators that compare adjacent image regions. While well-suited to encoding local relationships, such operators have significant drawbacks. Specifically, each filter's span is confounded with the size of its sub-fields, making it difficult to compare small regions across large distances. We find that such long-distance comparisons are more tolerant to common image transformations than purely local ones, suggesting they may provide a useful vocabulary for image encoding. . We introduce the "Dissociated Dipole," or "Sticks" operator, for encoding non-local image relationships. This operator de-couples filter span from sub-field size, enabling parametric movement between edge and region-based representation modes. We report on the perceptual plausibility of the operator, and the computational advantages of non-local encoding. Our results suggest that non-local encoding may be an effective scheme for representing image structure.