40 resultados para Assembling (Electronic computers)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La musique aujourd’hui est régulièrement accompagnée d’environnements visuels. Depuis les propositions en provenance du vidéoclip jusqu’aux œuvres installatives en passant par l’art web ou le cinéma, l’audiovisuel occupe une place considérable dans notre monde médiatisé et constitue un foyer important du développement des pratiques musicales. L’alliage entre son et image est souvent rattachée à l’histoire du cinéma mais les prémisses entourant l’audiovisuel remontent en réalité à l’Antiquité. Les correspondances entre sons et couleurs ont pris racine en premier chez les Pythagoriciens et cet intérêt se poursuit encore aujourd’hui. L’avènement de différentes technologies est venu reformuler au fil des siècles cette recherche qui retourne du décloisonnement artistique. L’arrivée de l’électricité permet au XIXe siècle le développement d’une lutherie expérimentale avec entre autres l’orgue à couleur d’Alexander Rimington. Ces instruments audiovisuels donnent naissance plus tard au Lumia, un art de la couleur et du mouvement se voulant proche de la musique et qui ne donne pourtant rien à entendre. Parallèlement à ces nouvelles propositions artistiques, il se développe dès les tout début du XXe siècle au sein des avant-gardes cinématographiques un corpus d’œuvres qui sera ensuite appelé musique visuelle. Les possibilités offertes par le support filmique vient offrir de nouvelles possibilités quant à l’organisation de la couleur et du mouvement. La pratique de cet art hybride est ensuite reformulée par les artistes associés à l’art vidéo avant de connaitre une vaste phase de démocratisation avec l’avènement des ordinateurs domestiques depuis les années 1990. Je retrace le parcours historique de ces pratiques audiovisuelles qui s’inscrivent résolument sur le terrain du musical. Un parcours appuyé essentiellement sur des œuvres et des ouvrages théoriques tout en étant parsemé de réflexions personnelles. Je traite des enjeux théoriques associés à ces propositions artistiques en les différenciant d’un autre format audiovisuel majeur soit le cinéma. Cet exposé permet de préparer le terrain afin de présenter et contextualiser mon travail de création. Je traite de deux œuvres, Trombe (2011) et Lungta (2012), des propositions qui héritent à la fois des musiques visuelles, de l’art interactif et de l’art cinétique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This chapter presents a dual perspective on the paratextual apparatus of a work of electronic literature, The Unknown: The Original Great American Hypertext Novel by William Gillespie, Scott Rettberg, Dirk Stratton, and Frank Marquardt. Approaches from literature studies and information science are combined to offer qualitative content analyses and close readings of the table of contents, titular apparatus, comments hidden in the source code, and other paratextual elements, in relation to the narrative. Findings indicate that the work's paratextual content presents inconsistencies and contradictions, both in terms of the use of the paratextual structure and of the information conveyed. The paratextual elements are analyzed through the lens of Gérard Genette's theory, as outlined in Paratexts: Thresholds of Interpretation, in order to gauge their role and efficiency as identifiers, organizational components, and information providers, as well as their literary effect. The value of the theory as an interdisciplinary tool is also discussed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose que l’origine d’un cyberdélinquant soit un facteur explicatif du phénomène de la cybercriminalité. Il comporte deux objectifs : premièrement, décrire les profils des cybercriminels recensés dans les médias internationaux; deuxièmement, vérifier si ces profils varient selon le lieu d’origine du cyberdélinquant. Une base de données, comportant 90 cas de cybercriminels répertoriés à travers le monde, fut créée. Quinze (15) cybercriminels par territoire ont été sélectionnés, les régions ciblées allant comme suit : Amérique du Nord, Amérique latine, Australasie, Europe de l’Ouest, Eurasie et Afrique/péninsule Arabique. En premier lieu, des analyses descriptives ont été exécutées afin de dresser un portrait de ce phénomène. En second lieu, des analyses de tableaux de contingence ont été effectuées entre les variables à l’étude afin de voir si des relations existaient. Enfin, d’autres analyses de tableaux de contingence ont été réalisées afin d’établir les différences des paramètres en fonction de l’origine. Les résultats de ces divers tests démontrent que ce sont généralement de jeunes hommes âgés en moyenne de 25 ans qui seront susceptibles de commettre des délits informatiques. Quelques profils types se sont dégagés des analyses et peuvent s’expliquer par l’accès au matériel informatique, les inégalités économiques entre classes sociales, tout comme la vitesse d’Internet, et ce, en fonction de l’origine du cyberdélinquant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La résistance bactérienne aux antibiotiques est de nos jours une préoccupation majeure aux acteurs du monde de la santé publique. L’identification de nouvelles cibles bactériennes en vue de développer de nouveaux antibiotiques est donc nécessaire. La paroi bactérienne est une bonne cible car l’inhibition de sa biosynthèse cause la mort des bactéries. De récents travaux de notre laboratoire ont identifié de nombreux nouveaux facteurs importants pour la biosynthèse de la paroi chez Escherichia coli. L’un de ces facteurs renommé ElyC a un domaine DUF218 extrêmement conservé à travers les espèces bactériennes. L’absence du gène elyC entraîne la lyse bactérienne à température pièce. Des études bioinformatiques indiquent qu’ElyC est une protéine membranaire avec deux domaines transmembranaires et un domaine conservé DUF218 de fonction inconnue. Étant donné que les protéines agissent souvent en complexes, nous avons émis l’hypothèse qu’ElyC interagit avec d’autres protéines afin d'exécuter sa fonction biologique. Le but de mon projet est de déterminer la topologie d’ElyC et d’identifier ses partenaires protéiques. L’étude de la topologie a été faite par l’essai de modification de cystéine sur des souches exprimant individuellement le facteur ElyC avec un résidu cystéine en position N-terminale, dans la boucle ou en position C-terminale. Les partenaires protéiques d’ElyC ont été isolés par immuno-précipitation et identifiés par spectrométrie de masse. Les résultats obtenus ont révélé qu’ElyC est une protéine membranaire chez E. coli et est impliquée dans l'assemblage de l'enveloppe bactérienne, dans la chaîne de transport d'électrons et la phosphorylation oxydative. Ils ont permis aussi de confirmer l’existence d’un lien entre ElyC et le stress oxydatif. Cependant les résultats pour la détermination de la topologie restent à être clarifiés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This article attempts to analyze the definition of "electronic literature" as given by the Electronic Literature Organization and to understand the relationship between electronic literature and digital literature. The thesis defended here is that this change of adjective hides a change in the theoretical status of the object that it attempts to define. The definition of electronic literature once concentrated on the tools used in the production of literary works and the critical analysis concentrating on the objects produced with the aid of new technologies. The move to the adjective "digital" marks a change in perception: now, from this perspective, the challenge is no longer to study works produced thanks to computers, but to understand the new status of literature in the age of the digital. To demonstrate this thesis, the article proposes to analyze one recent literary example: the 1984 trilogy by Eric Plamondon.