833 resultados para Computational Intelligence


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les suspensivores ont la tâche importante de séparer les particules de l'eau. Bien qu'une grande gamme de morphologies existe pour les structures d'alimentation, elles sont pratiquement toutes constituées de rangées de cylindres qui interagissent avec leur environnement fluide. Le mécanisme de capture des particules utilisé dépend des contraintes morphologiques, des besoins énergétiques et des conditions d'écoulement. Comme nos objectifs étaient de comprendre ces relations, nous avons eu recours à des études de comparaison pour interpréter les tendances en nature et pour comprendre les conditions qui provoquent de nouveaux fonctionnements. Nous avons utilisé la dynamique des fluides numérique (computational fluid dynamics, CFD) pour créer des expériences contrôlées et pour simplifier les analyses. Notre première étude démontre que les coûts énergétiques associés au pompage dans les espaces petits sont élevés. De plus, le CFD suggère que les fentes branchiales des ptérobranches sont des structures rudimentaires, d'un ancêtre plus grande. Ce dernier point confirme l'hypothèse qu'un ver se nourrit par filtration tel que l'ancêtre des deuterostomes. Notre deuxième étude détermine la gamme du nombre de Reynolds number critique où la performance d'un filtre de balane change. Quand le Re est très bas, les différences morphologiques n'ont pas un grand effet sur le fonctionnement. Cependant, une pagaie devient une passoire lorsque le Re se trouve entre 1 et 3,5. Le CFD s’est dévoilé être un outil très utile qui a permis d’obtenir des détails sur les microfluides. Ces études montrent comment la morphologie et les dynamiques des fluides interagissent avec la mécanisme de capture ou de structures utilisées, ainsi que comment des petits changements de taille, de forme, ou de vitesse d'écoulement peuvent conduire à un nouveau fonctionnement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

À l’heure où les limites du modèle de la démocratie représentative traditionnelle apparaissent de plus en plus évidentes, on a pu défendre, dans la littérature récente, un modèle sensiblement différent : celui d’une démocratie épistémique, tirant parti, par le mécanisme de la délibération inclusive, d’une forme d’intelligence collective qui serait disséminée à travers les agents d’une collectivité. Or, les partisans d’une telle approche se réclament souvent d’un argument qu’on trouve sous la plume d’Aristote en Politique, III, 11. L’objectif de cette étude est d’examiner la légitimité d’une telle filiation, en examinant de manière comparative les arguments modernes en faveur de la démocratie épistémique délibérative et le texte aristotélicien. Un tel travail permet de nuancer la portée du recours à Aristote dans les justifications épistémiques de la démocratie : d’une part, le mécanisme auquel songe Aristote dans le texte de la Politique ne saurait se ramener à une forme quelconque de délibération inclusive ; et, d’autre part, l’argument épistémique se trouve restreint par la mise en évidence des limites intrinsèques du régime démocratique. Plutôt que la source d’une position moderne en faveur de la démocratie, on trouverait alors chez Aristote l’occasion de penser le danger concret qui guette tout modèle délibératif : c’est-à-dire, la confiscation du débat public par une minorité de démagogues, qui empêche la collectivité de tirer parti de la diversité cognitive qu’elle contient.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce texte, nous soumettons à examen la conception de l'autisme avancée par Laurent Mottron dans son ouvrage L'autisme : une autre intelligence (Mottron, 2004). Le texte comprend quatre parties. Dans la première partie, nous présentons le cadre paradigmatique de l'auteur en matière de troubles envahissants et l'emphase mise sur une catégorie qu'il tient pour majoritaire bien que négligée dans la littérature scientifique et dans les réseaux de services : les troubles envahissants du développement sans déficienceintellectuelle (TEDSDI). Il assimile ce groupe à un nouvel autisme dominant. Dans la deuxième partie, nous montronsque souscrire à l'idée de l'autisme comme une autre forme d'intelligence ne permet pas une conceptualisation adéquate des capacités ni des déficits des personnes concernées. La troisième partie, aborde le problème du traitement de l'autisme. À l'encontre des propos de Mottron, nous défendons la pertinence de traiter l'autisme, notamment par I'intervention comportementale intensive (lCI) et l'analyse appliquée du comportement et jugeons sa position anachronique. D'autre part, la prépondérance et quasiexclusivité qu'il accorde à TEACCH comme réponse sociopsycho-pédagogique apparaît injustifiée. La quatrième partie constitue une critique de l'analyse des émotions chez les personnes autistes que fait l'auteur à partir d'écrits autobiographiques, un retour vers l'introspection comme méthode de recherche. En conclusion, nous déplorons le ton général du propos, trop dialectique, notamment dans sa dichotomisation entre autistes et non autistes. Le militantisme de Mottron pour les « autistes » sans déficience intellectuelle déçoit, de même que le débordement idéologique de sa théorie en faveur de la reconnaissance d'une culture autistique.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

School of Management Studies, Cochin University of Science and Technology

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Emotional intelligence is very important in organisations and the ability to manage feelings and handle stress is an important aspect of El. Even though a number of studies have been done to prove that E1 is related to organisationally relevant variables like leadership effectiveness, job satisfaction, performance, career success etc., and the theoretical grounding for emotional intelligence-stress-relationship seems sound, only a few studies have been done to establish this linkage. This study is an attempt to measure emotional intelligence and organisational role stress of managers working in industrial organisations and to examine the relationship between Emotional Intelligence and Organisational Role Stress. It also attempts to explore the influence of personal and occupational variables viz., age, education, gender, marital status, experience, department, type of organisation and designation on emotional intelligence. The investigator has also examined the difference in the level of role stress experienced by junior, middle and senior-level managers. The main objective of the study is to examine the relationship between emotional intelligence and organisational role stress.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thunderstorm is one of the most spectacular weather phenomena in the atmosphere. Many parts over the Indian region experience thunderstorms at higher frequency during pre-monsoon months (March- May), when the atmosphere is highly unstable because of high temperatures prevailing at lower levels. Most dominant feature of the weather during the pre-monsoon season over the eastern Indo-Gangetic plain and northeast India is the outburst of severe local convective storms, commonly known as ‘Nor’wester’ or ‘Kalbaishakhi’. The severe thunderstorms associated with thunder, squall line, lightning and hail cause extensive losses in agriculture, damage to structure and also loss of life. The casualty due to lightning associated with thunderstorms in this region is the highest in the world. The highest numbers of aviation hazards are reported during occurrence of these thunderstorms. In India, 72% of tornadoes are associated with this thunderstorm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FT-IR spectrum of quinoline-2-carbaldehyde benzoyl hydrazone (HQb H2O) was recorded and analyzed. The synthesis and crystal structure data are also described. The vibrational wavenumbers were examined theoretically using the Gaussian03 package of programs using HF/6-31G(d) and B3LYP/6-31G(d) levels of theory. The data obtained from vibrational wavenumber calculations are used to assign vibrational bands obtained in infrared spectroscopy of the studied molecule. The first hyperpolarizability, infrared intensities and Raman activities are reported. The calculated first hyperpolarizability is comparable with the reported values of similar derivatives and is an attractive object for future studies of non-linear optics. The geometrical parameters of the title compound obtained from XRD studies are in agreement with the calculated values. The changes in the CAN bond lengths suggest an extended p-electron delocalization over quinoline and hydrazone moieties which is responsible for the non-linearity of the molecule

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this knowledge era, the value of corporations, academic organizations and individuals is directly related to their knowledge and intellectual capital(IC). A newand potentially paradigm shift focus in the intersection between knowledge and intelligence is the recognition of the importance of understanding the intellectual capital of organizations. This paper explains how Cochin University of Science and Technology (CUSAT) is identifying and managing its intellectual capital for creating competitive advantage for the future. This paper also explores the different cost effective knowledge management strategies applied at CUSAT for managing its intellectual capital

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Successful management is dependent heavily on the manager’s ability to handle conflict effectively. The workforce has been increasingly becoming diversified vis-à-vis the gender, culture and ethnicity. The present work environment has in itself contributed to sowing seeds of conflict with greater diversity, hostility, complexity and newer business competencies in the work context.The classic study of Mintzberg’s Managerial roles approach (1973) also says that a manager has to spend sufficient time and energy in solving conflict as he has to take roles as a negotiator, and dispute handler. An understanding of the conflict and role that it plays in influencing employee behavior constructively or destructively is immense. Therefore conflict when left unmanaged can lead to diminished cohesiveness amongst employees, productivity and reduced organizational fitness. To manage conflict effective conflict resolution strategies that have constructive outcomes is called for. Conflict resolution style theorists opine that collaborative or integrative style, where there is high concern for task and people is considered to give positive individual and organizational outcomes, while the withdrawing /avoidance style and forcing / dominating style are considered to be ineffective in managing conflict. Though managers have typical preferences in the styles followed it need not necessarily be the typical response as it depends on the context, power relationships, emotions etc. The adoption of conflict styles of managers however is dependent on variables like gender orientation, cultural values, personality orientation, underlying relationships – public/private. The paper attempts to draw the importance of managing conflicts at workplace positively and the need for effective conflict resolution strategies. The conflict style adopted and the variables that affect the adoption of each style are discussed and possible interventions at the workplace are suggested

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Software systems are progressively being deployed in many facets of human life. The implication of the failure of such systems, has an assorted impact on its customers. The fundamental aspect that supports a software system, is focus on quality. Reliability describes the ability of the system to function under specified environment for a specified period of time and is used to objectively measure the quality. Evaluation of reliability of a computing system involves computation of hardware and software reliability. Most of the earlier works were given focus on software reliability with no consideration for hardware parts or vice versa. However, a complete estimation of reliability of a computing system requires these two elements to be considered together, and thus demands a combined approach. The present work focuses on this and presents a model for evaluating the reliability of a computing system. The method involves identifying the failure data for hardware components, software components and building a model based on it, to predict the reliability. To develop such a model, focus is given to the systems based on Open Source Software, since there is an increasing trend towards its use and only a few studies were reported on the modeling and measurement of the reliability of such products. The present work includes a thorough study on the role of Free and Open Source Software, evaluation of reliability growth models, and is trying to present an integrated model for the prediction of reliability of a computational system. The developed model has been compared with existing models and its usefulness of is being discussed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Management von Kundenbeziehungen hat sich in der klassischen Ökonomie unter dem Begriff »Customer Relationship Management« (kurz: CRM) etabliert und sich in den letzten Jahren als erfolgreicher Ansatz erwiesen. In der grundlegenden Zielsetzung, wertvolle, d.h. profitable und kreditwürdige Kunden an ein Unternehmen zu binden, kommen Business-Intelligence Technologien zur Generierung von Kundenwissen aus kundenbezogenen Daten zum Einsatz. Als technologische Plattform der Kommunikation und Interaktion gewähren Business Communities einen direkten Einblick in die Gedanken und Präferenzen der Kunden. Von Business-Communitybasiertem Wissen der Kunden und über Kunden können individuelle Kundenbedürfnisse, Verhaltensweisen und damit auch wertvolle (potenzielle, profilgleiche) Kunden abgeleitet werden, was eine differenziertere und selektivere Behandlung der Kunden möglich macht. Business Communities bieten ein umfassendes Datenpotenzial, welches jedoch bis dato für das CRM im Firmenkundengeschäft respektive die Profilbildung noch nicht genutzt wird. Synergiepotenziale von der Datenquelle "Business Community" und der Technologie "Business Intelligence" werden bislang vernachlässigt. An dieser Stelle setzt die Arbeit an. Das Ziel ist die sinnvolle Zusammenführung beider Ansätze zu einem erweiterten Ansatz für das Management der irmenkundenbeziehung. Dazu wird ein BIgestütztes CRM-Konzept für die Generierung, Analyse und Optimierung von Kundenwissen erarbeitet, welches speziell durch den Einsatz einer B2B-Community gewonnen und für eine Profilbildung genutzt wird. Es soll durch die Anbindung von Fremddatenbanken Optimierung finden: In den Prozess der Wissensgenerierung fließen zur Datenqualifizierung und -quantifizierung externe (Kunden-) Daten ein, die von Fremddatenbanken (wie z.B. Information Provider, Wirtschaftsauskunftsdienste) bereitgestellt werden. Der Kern dieser Zielsetzung liegt in der umfassenden Generierung und stetigen Optimierung von Wissen, das den Aufbau einer langfristigen, individuellen und wertvollen Kundenbeziehung unterstützen soll.