64 resultados para ecuación de Boltzmann-Hamel modificada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'apprentissage machine (AM) est un outil important dans le domaine de la recherche d'information musicale (Music Information Retrieval ou MIR). De nombreuses tâches de MIR peuvent être résolues en entraînant un classifieur sur un ensemble de caractéristiques. Pour les tâches de MIR se basant sur l'audio musical, il est possible d'extraire de l'audio les caractéristiques pertinentes à l'aide de méthodes traitement de signal. Toutefois, certains aspects musicaux sont difficiles à extraire à l'aide de simples heuristiques. Afin d'obtenir des caractéristiques plus riches, il est possible d'utiliser l'AM pour apprendre une représentation musicale à partir de l'audio. Ces caractéristiques apprises permettent souvent d'améliorer la performance sur une tâche de MIR donnée. Afin d'apprendre des représentations musicales intéressantes, il est important de considérer les aspects particuliers à l'audio musical dans la conception des modèles d'apprentissage. Vu la structure temporelle et spectrale de l'audio musical, les représentations profondes et multiéchelles sont particulièrement bien conçues pour représenter la musique. Cette thèse porte sur l'apprentissage de représentations de l'audio musical. Des modèles profonds et multiéchelles améliorant l'état de l'art pour des tâches telles que la reconnaissance d'instrument, la reconnaissance de genre et l'étiquetage automatique y sont présentés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise traite d’un phénomène social critique qui a gagné en importance au Québec : la montée des groupes de résistance populaire contre des projets d’exploitation des ressources naturelles. À partir d’une étude de cas, l’auteur tâche ici d’approfondir les questions relatives à ces luttes collectives tout en mettant en lumière les diverses modalités d’engagement qui, par leurs registres et leurs compositions en « systèmes-experts », se répercutent dans l’espace public tout en transformant, d’une certaine manière, l’arène politique. Ces dynamiques des mouvements de résistance tendent également à s’infléchir en amont des projets de développement, pour se matérialiser en aval, soit dès les premières phases d’appropriation territoriale, c’est-à-dire les premiers travaux exploratoires comme tels. Cette enquête de terrain se focalise sur ces enjeux. En prenant comme observatoire le projet de Terra Ventures à Sept-Îles, en région nord-côtière, concernant un projet d’exploration uranifère, l’auteur insiste sur les multiples références collectives qui sont autant de perspectives pour comprendre ce phénomène. À travers l’étude de cette résistance populaire qui s’est profilée contre ce projet d’exploration, c’est l’industrie minière au Québec, son histoire, ses mythes, et sa mémoire qui est, enfin, en trame de fond.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur le changement social dans la période postsocialiste à Cluj-« Napoca », une ville transylvaine de Roumanie. En mobilisant une approche en termes de rapports sociaux à l’espace, l’étude explore les principes de différenciation tant spatialement que socialement. Les concepts d’« espace public » et de « lieu » ont permis une analyse aux multiples facettes menée selon quatre axes : matérialité et la visibilité des espaces, sphère publique-politique, vie sociale publique, investissements et appropriations individuelles. La thèse examine ainsi les activités qui se déroulent dans les places publiques centrales, les investissements spatiaux, les rituels quotidiens et les manifestations contestataires, les multiples attachements ethniques et religieux des habitants. L’ethnographie des places publiques centrales de Cluj-« Napoca » a mis en évidence une « faible classification des espaces » centraux de la ville, traduite par une grande diversité sociale. Les marques ethnicisantes parsemées à Cluj-« Napoca » renvoient aux groupes ethniques, mais aussi à d’autres enjeux qui relèvent du processus de restructuration du champ politique dans le postsocialisme. Dans le même registre, les stratégies de type ethnique sont mobilisées pour désigner de nouveaux critères de différenciation sociale et pour redéfinir d’anciennes catégories sociales. Oublis, silences et exigences d’esthétisation reflètent des demandes implicites des habitants pour redéfinir les cadres de la politique. Finalement, la thèse montre comment l’espace public à Cluj-« Napoca » pendant la période postsocialiste relève d’un processus continuel de diversification sociale et d’invention des Autres par d’incessantes mises à distance. L’espace public n’est pas la recherche de ce que pourrait constituer le vivre ensemble, mais la quête de ce qui nous menace et qu’il faut mettre à distance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire cherche à concevoir en théorie la dialectique socialisa-tion/individualisation à l’œuvre dans la formation et la transmission des goûts et pratiques culturels chez les jeunes adultes. L'analyse de dix entretiens conduits auprès de jeunes Montréalais âgés de 18 à 24 ans révèle que la socialisation sous l’égide de la famille et de l’école reste active sans être coercitive du fait qu’elle s'avère propice à la capacité des jeunes à se concevoir sous leur propre gouverne et à développer leurs propres goûts en matière de pratiques culturelles. Les pairs jouent également un rôle à cet égard, rôle amplifié par les moyens numériques. Les relations entre pairs génèrent une espèce de tension entre conformité au groupe et volonté d’être soi-même et de pouvoir agir à sa guise. Les nouvelles technologies d’information et de communication, quant à elles, se révèlent de nos jours sources de socialisation et d’individualisation en donnant accès à des « réseaux » en vertu desquels s’infléchissent les goûts et les préférences qui façonnent la pratique de la culture tout en permettant aux jeunes d’avoir les coudées franches pour les développer par eux-mêmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux jeunes sont aux prises avec un problème de consommation de substances psychoactives. Bien que plusieurs traitements soient reconnus efficaces, les taux d’abandon chez les jeunes toxicomanes sont élevés et cela influence leur condition post-traitement. L’identification des caractéristiques des jeunes liés à l’abandon et à la condition post-traitement est donc nécessaire pour permettre d’adapter nos interventions en fonction des besoins des jeunes. La relation entre l’abandon du traitement ainsi que la condition post-traitement et diverses caractéristiques prétraitement a été examinée chez un échantillon de 215 clients adolescents admis à Portage entre 2003 et 2008, évalués avec l’instrument Indice de gravité d’une toxicomanie pour les adolescents (Germain, Landry, & Bergeron, 2003, 1999). Les relations entre l’abandon du traitement et des variables concernant leur consommation, leur état de santé, leurs problématiques liées à leurs occupations, leur état psychologique, leurs difficultés vécues auprès des proches et dans la famille ainsi que leurs difficultés socio-judiciaires ont été testées. Ces mêmes variables ont été utilisées pour chercher à prédire la condition post-traitement. Les régressions logistiques montrent qu’un premier séjour en communauté thérapeutique et les difficultés interpersonnelles prédisent l’abandon du traitement. Une fois les analyses réalisées de façon séparée selon le sexe, ces relations ne demeurent significatives que pour les filles. Les résultats des régressions linéaires multiples réalisées pour étudier la condition post-traitement ne permettent pas de retrouver les variables prévisionnelles rapportées dans les écrits scientifiques pour les clientèles adultes. Des questions sont soulevées quant à la pertinence de l’Indice de gravité d’une toxicomanie pour les adolescents (Germain, Landry, & Bergeron, 2003, 1999) pour prédire l’abandon et la condition post-traitement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche explore le Théâtre-forum comme support méthodologie d’un espace délibératif pour discuter des tensions sociales liées à la coprésence au centre-ville de Montréal entre des personnes en situation de rue et leurs voisins domiciliés. L’argument au cœur de la problématique repose sur les taches aveugles de la délibération: dans les forums de quartier, les inégalités sociales se traduisent par des inégalités délibératives au désavantage des personnes sans adresse en défaut d’autorité épistémologique en raison de leur statut; ces inégalités délibératives reproduisent le déni de reconnaissance qui traverse l’expérience relationnelle de ces personnes. Le Théâtre-forum est issu du Théâtre de l’opprimé : une pratique d’intervention théâtrale conçue par Augusto Boal durant la dictature au Brésil comme dispositif émancipateur pour les groupes opprimés. Le Joker incite les membres de l’auditoire à devenir Spect-acteurs par les remplacements du protagoniste, et ce, afin de surmonter son oppression. Ainsi, cette projection dans les chaussures du protagoniste-itinérant facilite-t-elle ce passage de l’indignité à la reconnaissance pour les personnes en situation de rue? L’échange théâtral peut-il ouvrir la voie vers la reconstruction d’un lien intersubjectif entre personnes sans adresse et domiciliés, intersubjectivité qui au cœur-même des vertus délibératives et des principes fondateurs défendus par les théoriciens de la reconnaissance comme Honneth et Renault?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat met en lumière les stratégies narratives déployées dans le récit français actuel pour représenter et construire son présent. L’hypothèse principale que cette recherche vérifie est la suivante : la littérature narrative d’aujourd’hui, par le recours à une énonciation entremêlant discours et narration ainsi que par une utilisation critique et pragmatique du passé, réplique au « présentisme » observé par François Hartog, cette perspective sur les temps dont le point d’observation et le point observé sont le présent. Les écrivains contemporains mettent en place un régime de temporalités où passé et avenir sont coordonnés au présent pour pacifier le rapport entre les trois catégories temporelles et faire apparaître un présent qui, sinon, demeure narrativement insaisissable ou soumis à l’autorité d’un passé ou d’un avenir qui dicte ses actions. En distinguant leurs textes du genre romanesque et du mode narratif qui le compose, Pierre Bergounioux, François Bon, Olivier Cadiot, Chloé Delaume, Annie Ernaux, Jean Echenoz et Olivier Rolin, entre autres, s’inscrivent dans la tradition énonciative du récit, ici entendu comme genre littéraire où l’énonciation et le texte en formation sont à eux-mêmes leur propre intrigue. Le sujet d’énonciation du récit contemporain cherche à élucider son rapport au temps en ayant recours à des scènes énonciatives qui ont à voir avec l’enquête et l’interlocution, de manière à ce que d’une anamnèse personnelle et intellectuelle, de même que de la confrontation d’une mémoire avec son récit jaillissent les caractéristiques d’une expérience du présent. Or, une des caractéristiques du présent expérimenté par le sujet contemporain semble être une résistance à la narration et au récit, rendant alors difficile sa saisie littéraire. Cette opposition au récit est investie par des écrivains qui ont recours, pour donner à voir l’immédiateté du présent, à la note et au journal, de même qu’à des genres littéraires qui mettent en échec la narration, notamment la poésie. En dépit de leurs efforts énonciatifs pour extraire le présent de l’opération qui le transforme en passé, ces écrivains font tout de même l’expérience répétée de la disparition immédiate du présent et de leur incapacité à énoncer littérairement un sentiment du présent. Le seul moyen d’en donner un aperçu reste alors peut-être de chercher à construire le présent à partir du constat répété de l’impossibilité d’un tel accomplissement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche explore le sens que la « génération de l’information » (20-35 ans) donne à l’engagement. Alors que sociologues et médias ont longtemps brandi des chiffres alarmants concernant la désaffection électorale des jeunes et leur rejet des associations ou groupes de pression usuels, le développement du Web 2.0 semble donner lieu à de nouvelles formes d’action visant le changement social, qui sont particulièrement prisées par les jeunes. Analysant leur recours à des pratiques de manifestations éclairs (flash mobs), de cyberdissidence, l’utilisation du micro-blogging et des réseaux Facebook et Twitter dans le cadre de mobilisations récentes, des enquêtes suggèrent qu’elles témoignent d’une nouvelle culture de la participation sociale et politique, qui appelle à repenser les façons de concevoir et de définir l’engagement. Or, si nous assistons à une transformation profonde des répertoires et des modes d’action des jeunes, il demeure difficile de comprendre en quoi et comment l’utilisation des TIC influence leur intérêt ou motivation à « agir ». Que veut dire s’engager pour les jeunes aujourd’hui ? Comment perçoivent-ils le contexte social, politique et médiatique ? Quelle place estiment-ils pouvoir y occuper ? Soulignant l’importance du sens que les acteurs sociaux donnent à leurs pratiques, la recherche s’éloigne des perspectives technocentristes pour explorer plus en profondeur la façon dont de jeunes adultes vivent, expérimentent et interprètent l’engagement dans le contexte médiatique actuel. La réflexion s’ancre sur une observation empirique et deux séries d’entretiens en profondeur (de groupe et individuels), menés auprès de 137 jeunes entre 2009-2012. Elle analyse un ensemble de représentations, perceptions et pratiques d’individus aux horizons et aux modes d’engagement variés, soulignant les multiples facteurs qui agissent sur la façon dont ils choisissent d’agir et les raisons qui les mènent à recourir aux TIC dans le cadre de pratiques spécifiques. À la croisée d’une multiplication des modes de participation et des modes d’interaction qui marquent l’univers social et politique des jeunes, la recherche propose de nouvelles hypothèses théoriques et une métaphore conceptuelle, le « murmure des étourneaux », pour penser la façon dont les pratiques d’affichage personnel, de relais, et d’expérimentation mises en avant par les jeunes s’arriment en réseau à celles d’autrui pour produire des « dérives culturelles » : des changements importants dans les façons de percevoir, d’agir et de penser. Loin d’une génération apathique ou technophile, les propos soulevés en entretiens suggèrent un processus réflexif de construction de sens, dont l’enjeu vise avant tout à donner l’exemple, et à penser ensemble de nouveaux possibles. La recherche permet d’offrir un éclairage qualitatif et approfondi sur ce qui caractérise la façon dont les jeunes perçoivent et définissent l’engagement, en plus d’ouvrir de nouvelles avenues pour mieux comprendre comment ils choisissent d’agir à l’ère du Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.