49 resultados para FACILE
Resumo:
Cette thèse décrit la synthèse, la caractérisation, les réactivités, et les propriétés physiques de complexes divalents et trivalents de Ni formés à partir de nouveaux ligands «pincer» de type POCN. Les ligands POCN de type amine sont préparés d’une façon simple et efficace via l’amination réductrice de 3-hydroxybenzaldéhyde avec NaBH4 et plusieurs amines, suivie par la phosphination de l’amino alcool résultant pour installer la fonction phosphinite (OPR2); le ligand POCN de type imine 1,3-(i-Pr)2PC6H4C(H)=N(CH2Ph) est préparé de façon similaire en faisant usage de PhCH2NH2 en l’absence de NaBH4. La réaction de ces ligands «pincer» de type POCN avec NiBr2(CH3CN)x en présence d’une base résulte en un bon rendement de la cyclométalation du lien C-H situé en ortho aux fonctions amine et phosphinite. Il fut découvert que la base est essentielle pour la propreté et le haut rendement de la formation des complexes «pincer» désirés. Nous avons préparé des complexes «pincer» plan- carrés de type POCN, (POCNRR΄)NiBr, possédant des fonctions amines secondaires et tertiaires qui démontrent des réactivités différentes selon les substituants R et R΄. Par exemple, les complexes possédant des fonctions amines tertiaires ArCH2NR2 (NR2= NMe2, NEt2, and morpholinyl) démontrent des propriétés rédox intéressantes et pourraient être convertis en leurs analogues trivalents (POCNR2)NiBr2 lorsque réagis avec Br2 ou N-bromosuccinimide (NBS). Les complexes trivalents paramagnétiques à 17 électrons adoptent une géométrie de type plan-carré déformée, les atomes de Br occupant les positions axiale et équatoriale. Les analyses «DSC» et «TGA» des ces composés ont démontré qu’ils sont thermiquement stables jusqu’à ~170 °C; tandis que la spectroscopie d’absorption en solution a démontré qu’ils se décomposent thermiquement à beaucoup plus basse température pour regénérer les complexes divalents ne possédant qu’un seul Br; l’encombrement stérique des substitutants amines accélère cette route de décomposition de façon significative. Les analogues NMe2 et N(morpholinyl) de ces espèces de NiIII sont actifs pour catalyser la réaction d’addition de Kharasch, de CX4 à des oléfines telles que le styrène, tandis qu’il fut découvert que l’analogue le moins thermiquement stable (POCNEt2)Ni est complètement inerte pour catalyser cette réaction. Les complexes (POCNRH)NiBr possédant des fonctions amines secondaires permettent l’accès à des fonctions amines substituées de façon non symétrique via leur réaction avec des halogénures d’alkyle. Un autre avantage important de ces complexes réside dans la possibilité de déprotonation pour préparer des complexes POCN de type amide. De telles tentatives pour déprotoner les fonctions NRH nous ont permis de préparer des espèces dimériques possédant des ligands amides pontants. La nature dimérique des ces complexes [P,C,N,N-(2,6-(i-Pr)2PC6H3CH2NR)Ni]2 (R= PhCH2 et Ph) fut établie par des études de diffraction des rayons-X qui ont démontré différentes géométries pour les cœurs Ni2N2 selon le substituant N : l’analogue (PhCH2)N possède une orientation syn des substitutants benzyles et un arrangement ressemblant à celui du cyclobutane du Ni et des atomes d’azote, tandis que l’analogue PhN adopte un arrangement de type diamant quasi-planaire des atomes du Ni et des atomes d’azote et une orientation anti des substituants phényles. Les espèces dimériques ne se dissocient pas en présence d’alcools, mais elles promouvoient l’alcoolyse catalytique de l’acrylonitrile. De façon intéressante, les rendements de ces réactions sont plus élevés avec les alcools possédant des fonctions O-H plus acides, avec un nombre de «turnover» catalytique pouvant atteindre 2000 dans le cas de m-cresol. Nous croyons que ces réactions d’alcoolyse procèdent par activation hétérolytique de l’alcool par l’espèce dimérique via des liaisons hydrogènes avec une ou deux des fonctions amides du dimère. Les espèces dimériques de Ni (II) s’oxydent facilement électrochimiquement et par reaction avec NBS ou Br2. De façon surprenante, l’oxydation chimique mène à l’isolation de nouveaux produits monomériques dans lesquels le centre métallique et le ligand sont oxydés. Le mécanisme d’oxydation fut aussi investigué par RMN, «UV-vis-NIR», «DFT» et spectroélectrochimie.
Resumo:
Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, c’est devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.
Resumo:
Notre étude est bipartite. En premier lieu nous avons effectué une étude empirique des différences entre les processus de catégorisation explicite (verbalisable) et implicite (non-verbalisable). Nous avons examiné la difficulté et le temps nécessaire pour apprendre trois tâches de catégorisation dites par air de famille, par règle logique conjonctive et par règle logique disjonctive. Nous avons ensuite utilisé un réseau neuronal pour modéliser la catégorisation en lui faisant compléter les mêmes tâches. La comparaison entre les deux nous permet de juger de l’adéquation du modèle. Les données empiriques ont montré un effet de la typicité et de la familiarité en accord avec la documentation et nous trouvons que la tâche de catégorisation par règle disjonctive est la plus difficile alors que la tâche de catégorisation par air de famille est la plus facile. La modélisation par le réseau est une réussite partielle mais nous présentons des solutions afin qu’un réseau futur puisse modéliser le processus catégoriel humain efficacement
Resumo:
Le sujet de ce mémoire est l’étude ab initio des nanotubes de carbone. Premièrement, une introduction du sujet est présentée. Elle porte sur l’historique, la structure géométrique et électronique et les applications possibles des nanotubes de carbone. En deuxième lieu, la stabilité énergétique des nanotubes de carbones double parois ainsi que leur structure électronique sont étudiées. On trouve entre autres que le changement d’hybridation provoque une chute de l’énergie du dernier niveau occupé pour les petits nanotubes. Troisièmement, nous présenterons une étude sur la dépendance en diamètre et en métallicité du greffage d’unité bromophényle sur la surface des nanotubes. La principale conclusion est qu’il est plus facile de fonctionnaliser les nanotubes de petit diamètre puisque ceux-ci ont déjà une partie d’hybridation sp3 dans leur structure électronique. Finalement, le dernier chapitre aborde la combustion des nanotubes par le dioxyde de carbone. On constate que cette combustion ne peut pas débuter sur une surface intacte, ni par un pontage d’oxygène dû à la grande quantité d’énergie requise. La réaction privilégiée est alors la combustion par les extrémités du nanotube. Nous proposons une dynamique de réaction qui contient une sélectivité en diamètre.
Resumo:
Objectif : Évaluer les effets sur la croissance des maxillaires, ainsi que les effets dentaires, de l'utilisation du Forsus versus celle des élastiques de classe II. Matériel et méthode : Un échantillon de 30 patients a été traité sans extraction et a eu une phase d'alignement préliminaire avec appareillage orthodontique fixe complet. Vingt-trois (23) patients (14 filles, 9 garçons) ont été traités à l'aide de Forsus (âge moyen : 13,4 ans) et 7 patients (4 filles, 3 garçons) ont été traités avec des élastiques de classe II (âge moyen : 14,3 ans). Une radiographie céphalométrique a été prise à la fin de la phase d'alignement, juste avant la mise en place de l'appareil myofonctionnel choisi, et une autre au moment de l'enlèvement de l'appareil (temps de port moyen : 0,5 an). Les radiographies ont ensuite été tracées à l'aveugle et 17 mesures ont été sélectionnées pour évaluer l'effet des appareils sur les maxillaires (ANS-PNS, SNA, SNB, ANB, Go-Pg, Ar-Go, Co-Gn, axe Y, Ar-Gn, Ar-Go-Me, FMA, POF/FH, PP/FH, B-Pg(PM), 1/-FH, 1/-/1, /1-PM). Un questionnaire pour évaluer le confort face à leur appareil a été remis aux patients à environ la moitié du temps de port estimé. Résultats : Il n'y a aucune différence statistiquement significative entre les deux traitements sur la croissance du maxillaire (ANS-PNS p = 0,93, SNA p = 0,12). De façon générale, il n'y a pas non plus de différence significative entre les deux traitements sur la croissance de la mandibule (Ar-Gn p = 0,03, SNB p = 0,02 et pour les 6 autres mesures p > 0,05). Pour la composante dento-alvéolaire, les deux traitements proclinent les incisives inférieures et rétroclinent les incisives supérieures, le Forsus causant une plus forte rétroclinaison des incisives supérieures (1/-FH p = 0,007, /1-PM p = 0,10). Pour les changements angulaires des plans, le Forsus cause de manière significative une augmentation de l’inclinaison du plan occlusal (POF/FH p = 0,001). Pour le questionnaire sur l'évaluation du confort, il n'y a pas de différence entre les deux traitements en ce qui concerne la gêne face aux activités quotidiennes (p = 0,19). L'hygiène est plus facile avec les élastiques (p = 0,03). Le sommeil n’est perturbé par aucun des appareils (p =0,76). La différence entre le groupe «élastiques» et le groupe «Forsus» pour le confort en général n'est pas significative (p = 0,08). Conclusions : Le but de l’étude étant de vérifier l’efficacité des élastiques de classe II bien portés versus celle des Forsus, on peut conclure que leurs effets sont relativement similaires sur les maxillaires. Cependant, le Forsus cause de manière statistiquement significative une augmentation de l'angle du plan occlusal et une rétroclinaison plus importante des incisives supérieures.
Resumo:
Notre recherche a pour objet la migration pour études et plus précisément l’expérience de retour et du non-retour des diplômés guinéens formés au Canada. Elle repose sur une démarche qualitative. Prenant appui sur des matériaux discursifs issus d’entrevues individuelles dans deux sites (en Guinée et au Canada), auprès d’un échantillon de trente et un diplômés, notre étude s’est attachée, dans un premier temps, à faire ressortir les motivations des étudiants à « retourner au pays » à la fin de leurs études au Canada ou, à l’inverse, à demeurer dans le pays d’accueil. Dans une seconde phase, la recherche s'est intéressée au devenir des enquêtés après leurs études et en particulier à l’insertion ou réinsertion sociale, familiale et professionnelle des diplômés retournés en Guinée ou installés au Canada. Enfin, notre étude examine les perspectives d’avenir de l’ensemble de nos répondants; leurs satisfactions et frustrations après le retour en Guinée ou l’installation au Canada, le bilan qu’ils tirent de leur expérience de migration pour études mais aussi les perspectives de retour éventuelles et les liens que ceux qui sont restés entretiennent avec leur pays d’origine. Pour les diplômés retournés en Guinée, l’analyse des données montre que les « perspectives d’emploi et de promotion » ont joué un rôle central dans leur décision de rentrer. Ils sont également nombreux a déclaré avoir choisi le retour pour des raisons familiales. Certains justifient aussi leur retour par « la volonté de servir le pays ». Si l’insertion familiale a été facile pour la plupart des diplômés retournés en Guinée, la réinsertion sociale, le retour à des pratiques sociales et à un environnement précaire « qu’ils avaient oublié » semble en revanche avoir été moins aisé. Sur le plan professionnel, le séjour canadien est perçu comme ayant eu un impact très positif sur leur carrière. Les diplômes canadiens semblent très valorisés en Guinée et les réseaux canadiens que les diplômés ont pu établir lors de leur séjour sont aussi très utiles. La possibilité de trouver un emploi décent au Canada domine également le discours des répondants qui ont choisi de demeurer au pays d’accueil après leur formation. Les répondants ayant choisi de demeurer au Canada évoquent également fréquemment l’idée de « sacrifier » leur retour au profit de « l’avenir » des enfants. La politique de l’immigration canadienne par « l’incitation » de demeurer au Canada après les études ont aussi influencé certains diplômés dans leurs décisions de ne pas retourner. Même s’ils évoquent fréquemment l’emploi pour justifier leur installation au Canada, nos répondants restés au Canada ne trouvent pas facilement un travail qui correspond à leur formation et doivent souvent se contenter de « petits boulots ». Plusieurs pointent du doigt le «bilinguisme» et la «discrimination» en milieu de travail comme obstacles majeurs. Enfin, pour bon nombre d’entre eux le « retour au pays » est une perspective jamais écartée, la plupart n’ont jamais coupé le lien avec leur pays d’origine et plusieurs tiennent à faire connaître la culture guinéenne à leurs enfants.
Resumo:
L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.
Resumo:
Résumé Le but de cette recherche est de comprendre le conflit de loyauté chez les enfants exposés à la violence conjugale lorsque les parents sont séparés. Le premier objectif vise à décrire le contexte relationnel de l’enfant avec son père et sa mère. Le second objectif cherche à évaluer la présence et à décrire, le cas échéant, la nature du conflit de loyauté et ses conséquences chez l’enfant. Un troisième objectif porte sur l’identification de sous-groupes d’enfants similaires quant à leur discours sur le conflit de loyauté. Enfin, l’objectif final consiste à décrire un possible changement d’intensité du conflit de loyauté dans le temps. La recherche adopte une méthode qualitative pour recueillir le point de vue des enfants sur un possible vécu de conflit de loyauté des enfants entre leur père et leur mère. Douze enfants, ayant reçu des services d’intervention en maison d’hébergement, donnent leur point de vue sur leur expérience de conflit de loyauté. L’opinion de leur mère raconte l’histoire d’exposition à la violence conjugale de l’enfant ainsi que sa relation avec chacun des deux parents. La perception des intervenantes sur un possible conflit de loyauté chez l’enfant ainsi que sur sa relation avec chacun de ses parents vient enrichir cette recherche. Une description du contexte relationnel de l’enfant avec son père et sa mère démontre que la relation des enfants avec leur père ne semble pas toujours facile, alors que celle de l’enfant avec sa mère est plus positive. Les intervenantes jugent que les douze enfants vivent un conflit de loyauté, alors qu’un seul de ces participants verbalise ne pas en vivre. Une première analyse qualitative du discours des enfants a permis de constater qu’aucun des onze enfants n’identifie le père ou la mère comme étant le seul initiateur du conflit de loyauté. Comme résultat des verbalisations des enfants, deux groupes sont formés selon le degré d’élaboration du discours (élaboré ou non élaboré). Les résultats principaux permettent de constater que le degré de conflit de loyauté initié par les mères demeure stable dans le temps alors qu’il s’intensifie lorsqu’initié par certains pères de l’étude.
Resumo:
Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.
Resumo:
Le Pérou a sombré pendant vingt ans dans un climat de violence politique, opposant des groupes subversifs, comme le Sentier Lumineux, à l’armée péruvienne. Ce conflit a causé la disparition de 70 000 personnes, majoritairement des paysans andins quechuaphone. Poussés à fuir pour survivre, ils ont dû abandonner leurs terres pour migrer dans des centres urbains où l’adaptation n’a pas toujours été facile. C'est pourquoi on remarque, dès les années 90, avec la mise en place d'une politique de repeuplement par Fujimori, un retour des paysans dans leur communauté. Le retour, et par conséquent le déplacement, ont généré une nouvelle dynamique dans les communautés et perturbé les relations sociales. Les liens de confiance ont été rompus, les liens sociaux brisés et sont remplacés par un ressentiment qui déstructure l’organisation des communautés et principalement celle de Cayara. Le traumatisme pesant incite les Cayarinos au silence. Un silence qui ne peut être associé à l’oubli, mais qui a pour fonction de protéger les générations futures des horreurs du passé. Tout traitement de la souffrance causé par la violence suppose une politique de la mémoire. À cette mémoire silencieuse, que je qualifierai de traumatique s’oppose une mémoire active qui opère dans la ville d'Ayacucho. Les hommes représentant 80% des disparus, ce sont les femmes qui ont dû prendre en charge la gestion des communautés, en assumant de nouvelles responsabilités. Ce sont elles qui se sont battues pour amener la paix en dénonçant les horreurs commises. Et ce sont elles qui aujourd’hui luttent pour préserver la mémoire du conflit, afin que celui-ci ne se répète pas. À l’inverse du silence des communautés, à Ayacucho les femmes agissent activement, ce qui nous amène à penser que la transmission de la mémoire passerait par une spécialisation de celle-ci. On qualifierait la mémoire vive, de mémoire féminine.
Resumo:
Chaque apparition d’une nouvelle technologie remet inévitablement en cause le cadre législatif établi pour protéger les droits de propriété. Cependant, avec la numérisation de l’information et l’avènement d’Internet, il est de plus en plus facile de reproduire et de distribuer librement des œuvres protégées. Toutefois, depuis le 20 décembre 1996, l’Organisation Mondiale de la Propriété Intellectuelle (OMPI) a adopté deux traités ayant pour objectif principal d’adapter le cadre juridique du droit d’auteur aux nouvelles technologies. C’est pour se conformer à ces traités que l’administration Clinton a adopté le Digital Millenium Copyright Act (DMCA) en 1998. Cet article examine d’abord les dimensions constitutionnelle du Copyright américain, et plus spécifiquement certaines limites qui viennent tempérer les prérogatives exclusives des titulaires de droits, notamment le domaine public et les usages équitables possibles d’ une œuvre. Sont ensuite examinés le DMCA et sa conformité aux principes énoncés à la clause constitutionnelle, source du pouvoir législatif du Congrès américain en matière de Copyright. De plus, comme le DMCA interdit non seulement le contournement de technologies protégeant une œuvre en format numérique, mais également la fabrication et la diffusion de technologies permettant d’arriver à cette fin, cet article analyse les répercussions de cette loi sur la liberté d’expression.
Resumo:
« Dissimuler » un trésor a toujours fasciné. Mais à l’heure actuelle, le trésor n’est plus toujours une caisse pleine de pierres précieuses ou d’or, il peut s’agir d’une simple information ou d’une donnée informatique importante que l’on souhaite cacher pour mieux la protéger. Avec le développement d’Internet, le domaine de la stéganographie, technique consistant à dissimuler une information pour la faire passer inaperçue, prend alors une nouvelle ampleur : il est désormais facile de dissimuler un fichier qui n’est qu’une goutte d’eau dans un océan informationnel. Si cette possibilité ouvre de nouvelles perspectives en termes de sécurité de l’information (car si personne ne sait qu’il y a un message secret, personne ne cherchera à le regarder ou le récupérer…), sa couverture sur le plan juridique n’est encore qu’embryonnaire. Dans la première partie, après avoir présenté les principes de la stéganographie informatique, nous montrerons combien un tel procédé est complémentaire et s’accorde bien avec la cryptographie, et le mettrons en perspective avec d’autres techniques voisines de dissimulation d’information (tatouage et empreinte digitale). Nous illustrerons finalement quelques pratiques de stéganographie appliquée à deux catégories de données numériques, l’image et le texte. Dans la seconde partie, nous plaçant résolument sur le plan juridique, nous tenterons tout d’abord de voir si la stéganographie peut faire partie des mesures techniques de protection que doit mettre en place un responsable de système d’information au titre de l’obligation de sécurité informationnelle. Ensuite, après avoir constaté que certains usages déviants de la stéganographie pouvaient impacter la sécurité publique, nous nous interrogerons sur ses répercussions, compte tenu des exigences d’accessibilité et d’intégrité de l’information.
Resumo:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.
Resumo:
La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.
Resumo:
Cette thèse présente le résultat de plusieurs années de recherche dans le domaine de la génération automatique de résumés. Trois contributions majeures, présentées sous la forme d'articles publiés ou soumis pour publication, en forment le coeur. Elles retracent un cheminement qui part des méthodes par extraction en résumé jusqu'aux méthodes par abstraction. L'expérience HexTac, sujet du premier article, a d'abord été menée pour évaluer le niveau de performance des êtres humains dans la rédaction de résumés par extraction de phrases. Les résultats montrent un écart important entre la performance humaine sous la contrainte d'extraire des phrases du texte source par rapport à la rédaction de résumés sans contrainte. Cette limite à la rédaction de résumés par extraction de phrases, observée empiriquement, démontre l'intérêt de développer d'autres approches automatiques pour le résumé. Nous avons ensuite développé un premier système selon l'approche Fully Abstractive Summarization, qui se situe dans la catégorie des approches semi-extractives, comme la compression de phrases et la fusion de phrases. Le développement et l'évaluation du système, décrits dans le second article, ont permis de constater le grand défi de générer un résumé facile à lire sans faire de l'extraction de phrases. Dans cette approche, le niveau de compréhension du contenu du texte source demeure insuffisant pour guider le processus de sélection du contenu pour le résumé, comme dans les approches par extraction de phrases. Enfin, l'approche par abstraction basée sur des connaissances nommée K-BABS est proposée dans un troisième article. Un repérage des éléments d'information pertinents est effectué, menant directement à la génération de phrases pour le résumé. Cette approche a été implémentée dans le système ABSUM, qui produit des résumés très courts mais riches en contenu. Ils ont été évalués selon les standards d'aujourd'hui et cette évaluation montre que des résumés hybrides formés à la fois de la sortie d'ABSUM et de phrases extraites ont un contenu informatif significativement plus élevé qu'un système provenant de l'état de l'art en extraction de phrases.