13 resultados para Bit-shuffling

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

PROBLÉMATIQUE La violence collective, à travers les guerres civiles et autres conflits politiques violents, constitue un lourd fardeau pour la santé publique. Plus de la moitié des décès causés par l’ensemble des conflits dans le monde entier se trouvent en Afrique. L’une des conséquences est le déplacement massif des populations qui se réfugient vers l’extérieur du pays, mais aussi de plus en plus à l’intérieur des frontières nationales. Ceux qui ne traversent pas sont appelés déplacés internes. Leur état de santé est au moins aussi vulnérable que celui de réfugiés, mais est très peu documenté. De 1993 à 2005, le Burundi a plongé dans une crise politico-sociale sans précédent. En 2001, environ 10 % de la population vivaient dans des camps de déplacés. OBJECTIF Documenter l’état de santé des personnes déplacées par la guerre au Burundi et identifier ses déterminants. CADRE CONCEPTUEL Le cadre conceptuel est basé sur la modélisation de l’association entre les événements traumatiques, les facteurs de l’environnement post-traumatique et l’état de santé des déplacés internes burundais. MÉTHODE Une enquête transversale a été menée dans deux camps de déplacés au Burundi. Les données ont été obtenues de façon rétrospective sur l’exposition aux événements traumatiques et de manière transversale pour l’état de santé et les facteurs de l’environnement post-traumatique. Les participants ont été interrogés sur les événements traumatiques vécus personnellement ou par leurs proches selon une courte échelle élaborée à cet effet. De même, les facteurs de l’environnement post-traumatique ont été documentés. Pour la mesure de l’état de santé, un questionnaire comportant certains des 17 items du profil de santé de Duke a été utilisé. Deux traductions ont été réalisées et plusieurs items ont été adaptés. RÉSULTATS Les événements traumatiques vécus par les déplacés internes burundais sont négativement associés à l’état de santé physique, à l’état de santé sociale, à l’état de santé perçu et, positivement, avec l’incapacité. De même, plusieurs facteurs de l’environnement post-traumatique sont associés à l’état de santé. Par contre, certaines associations sont à interpréter selon leurs interactions avec les événements traumatiques. Celles-ci agissent parfois comme modificateurs d’effet, en amortissant ou en amplifiant le lien associatif initial entre certains événements traumatiques et l’état de santé des déplacés. CONCLUSION : Les résultats font ressortir un effet différentiel associé d’une part aux événements traumatiques vécus précédemment et d’autre part, en interaction avec ces derniers, à l’environnement post-traumatique. Notre thèse en arrive à la conclusion que les facteurs de l’environnement post-traumatique constituent des déterminants importants de l’état de santé des déplacés de guerre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous proposons des protocoles cryptographiques d'échange de clef, de mise en gage, et de transfert équivoque. Un premier protocole de transfert équivoque, primitive cryptographique universelle pour le calcul multi-parties, s'inspire du protocole d'échange de clef par puzzle de Merkle, et améliore les résultats existants. Puis, nous montrons qu'il est possible de construire ces mêmes primitives cryptographiques sans l'hypothèse des fonctions à sens unique, mais avec le problème 3SUM. Ce problème simple ---dans une liste de n entiers, en trouver trois dont la somme a une certaine valeur--- a une borne inférieure conjecturée de Omega(n^2).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les autotransporteurs monomériques représentent le système de sécrétion le plus simple et le plus utilisé chez les bactéries à Gram négatif. Les autotransporteurs monomériques sont des protéines modulaires qui contiennent toute l’information pour leur sécrétion dans leur séquence. Les phénotypes associés à l’expression d’un autotransporteur peuvent être très variés et, souvent, les autotransporteurs sont des protéines multifonctionnelles. C’est le cas notamment des autotransporteurs AIDA-I, TibA et Ag43 d’Escherichia coli qui promouvoient l’adhésion et l’invasion de cellules épithéliales, l’auto-agrégation des bactéries et la formation de biofilm. Ces trois autotransporteurs ont d’ailleurs été regroupés dans une même famille, appelée les autotransporteurs auto-associatifs (SAATs). À cause de leur fonctionnalité, les SAATs sont considérés comme étant d’importants facteurs de virulence d’Escherichia coli. Toutefois, il existe plusieurs différences entre les SAATs qui ne sont pas bien comprises, si bien que leur rôle pour les bactéries n’est toujours pas bien compris. Nous avons donc d’abord caractérisé TibA, le membre des SAATs le moins bien étudié à l’aide d’une étude structure-fonction. Nous avons observé que TibA était une protéine modulaire et que son domaine fonctionnel était composé de deux modules : un module d’auto-agrégation en N-terminal et un module d’adhésion en C-terminal. En comparant nos résultats avec ceux obtenus pour les autres SAATs, nous avons réalisé que l’organisation des trois SAATs était très variée, c’est-à-dire que les trois SAATs sont composés de modules différents. Nous avons par ailleurs observé cet arrangement en modules lorsque nous avons analysé plusieurs séquences d’aidA, suggérant qu’un mécanisme d’échange et d’acquisition de modules était à la base de l’évolution des SAATs. Sans surprise, nous avons aussi observé que la famille des SAATs ne se limitait pas à AIDA-I, TibA et Ag43 et ne se limitait pas à Escherichia coli. La comparaison a aussi révélé l’importance du phénotype d’auto-agrégation dans la fonctionnalité des SAATs. Nous avons donc entrepris une étude du mécanisme d’auto-agrégation. Nos résultats on montré que l’auto-agrégation était le résultat d’une interaction directe SAAT/SAAT et ont mis en évidence un mécanisme similaire à celui utilisé par les cadhérines eucaryotes. De plus, nous avons observé que, comme les cadhérines, les SAATs étaient impliqués dans des interactions homophiliques; un SAAT interagit donc spécifiquement avec lui-même et non avec un différent SAAT. Finalement, les SAATs font parties des quelques protéines qui sont glycosylées chez Escherichia coli. Nous avons déterminé que le rôle de la glycosylation de TibA était de stabiliser la protéine et de lui donner la flexibilité nécessaire pour moduler sa conformation et, ainsi, être pleinement fonctionnelle. Globalement, nos résultats suggèrent que les SAATs sont des molécules « cadhérines-like » qui permettent la reconnaissance de soi chez les bactéries. Une telle habilité à discriminer entre le soi et le non-soi pourrait donc être utilisée par les bactéries pour organiser les communautés bactériennes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gazéification est aujourd'hui l'une des stratégies les plus prometteuses pour valoriser les déchets en énergie. Cette technologie thermo-chimique permet une réduction de 95 % de la masse des intrants et génère des cendres inertes ainsi que du gaz de synthèse (syngaz). Le syngaz est un combustible gazeux composé principalement de monoxyde de carbone (CO), d'hydrogène (H2) et de dioxyde de carbone (CO2). Le syngaz peut être utilisé pour produire de la chaleur et de l'électricité. Il est également la pierre angulaire d'un grand nombre de produits à haute valeur ajoutée, allant de l'éthanol à l'ammoniac et l'hydrogène pur. Les applications en aval de la production de syngaz sont dictées par son pouvoir calorifique, lui-même dépendant de la teneur du gaz en H2. L’augmentation du contenu du syngaz en H2 est rendu possible par la conversion catalytique à la vapeur d’eau, largement répandu dans le cadre du reformage du méthane pour la production d'hydrogène. Au cours de cette réaction, le CO est converti en H2 et CO2 selon : CO + H2O → CO2 + H2. Ce processus est possible grâce à des catalyseurs métalliques mis en contact avec le CO et de la vapeur. La conversion catalytique à la vapeur d’eau a jusqu'ici été réservé pour de grandes installations industrielles car elle nécessite un capital et des charges d’exploitations très importantes. Par conséquent, les installations de plus petite échelle et traitant des intrants de faible qualité (biomasse, déchets, boues ...), n'ont pas accès à cette technologie. Ainsi, la seule utilisation de leur syngaz à faible pouvoir calorifique, est limitée à la génération de chaleur ou, tout au plus, d'électricité. Afin de permettre à ces installations une gamme d’application plus vaste de leurs syngaz, une alternative économique à base de catalyseur biologique est proposée par l’utilisation de bactéries hyperthermophiles hydrogénogènes. L'objectif de cette thèse est d'utiliser Carboxydothermus hydrogenoformans, une bactérie thermophile carboxydotrophe hydrogénogène comme catalyseur biologique pour la conversion du monoxyde de carbone en hydrogène. Pour cela, l’impact d'un phénomène de biominéralisation sur la production d’H2 a été étudié. Ensuite, la faisabilité et les limites de l’utilisation de la souche dans un bioréacteur ont été évaluées. Tout d'abord, la caractérisation de la phase inorganique prédominante lorsque C. hydrogenoformans est inoculé dans le milieu DSMZ, a révélé une biominéralisation de phosphate de calcium (CaP) cristallin en deux phases. L’analyse par diffraction des rayons X et spectrométrie infrarouge à transformée de Fourier de ce matériau biphasique indique une signature caractéristique de la Mg-whitlockite, alors que les images obtenues par microscopie électronique à transmission ont montré l'existence de nanotiges cristallines s’apparentant à de l’hydroxyapatite. Dans les deux cas, le mode de biominéralisation semble être biologiquement induit plutôt que contrôlé. L'impact du précipité de CaP endogène sur le transfert de masse du CO et la production d’H2 a ensuite été étudié. Les résultats ont été comparés aux valeurs obtenues dans un milieu où aucune précipitation n'est observée. Dans le milieu DSMZ, le KLa apparent (0.22 ± 0.005 min-1) et le rendement de production d’H2 (89.11 ± 6.69 %) étaient plus élevés que ceux obtenus avec le milieu modifié (0.19 ± 0.015 min-1 et 82.60 ± 3.62% respectivement). La présence du précipité n'a eu aucune incidence sur l'activité microbienne. En somme, le précipité de CaP offre une nouvelle stratégie pour améliorer les performances de transfert de masse du CO en utilisant les propriétés hydrophobes de gaz. En second lieu, la conversion du CO en H2 par la souche Carboxydothermus hydrogenoformans fut étudiée et optimisée dans un réacteur gazosiphon de 35 L. Parmi toutes les conditions opérationnelles, le paramètre majeur fut le ratio du débit de recirculation du gaz sur le débit d'alimentation en CO (QR:Qin). Ce ratio impacte à la fois l'activité biologique et le taux de transfert de masse gaz-liquide. En effet, au dessus d’un ratio de 40, les performances de conversion du CO en H2 sont limitées par l’activité biologique alors qu’en dessous, elles sont limitées par le transfert de masse. Cela se concrétise par une efficacité de conversion maximale de 90.4 ± 0.3 % et une activité spécifique de 2.7 ± 0.4 molCO·g–1VSS·d–1. Malgré des résultats prometteurs, les performances du bioréacteur ont été limitées par une faible densité cellulaire, typique de la croissance planctonique de C. hydrogenoformans. Cette limite est le facteur le plus contraignant pour des taux de charge de CO plus élevés. Ces performances ont été comparées à celles obtenues dans un réacteur à fibres creuses (BRFC) inoculé par la souche. En dépit d’une densité cellulaire et d’une activité volumétrique plus élevées, les performances du BRFC à tout le moins cinétiquement limitées quand elles n’étaient pas impactées par le transfert de masse, l'encrassement et le vieillissement de la membrane. Afin de parer à la dégénérescence de C. hydrogenoformans en cas de pénurie de CO, la croissance de la bactérie sur pyruvate en tant que seule source de carbone a été également caractérisée. Fait intéressant, en présence simultanée de pyruvate et de CO, C. hydrogenoformans n’a amorcé la consommation de pyruvate qu’une fois le CO épuisé. Cela a été attribué à un mécanisme d'inhibition du métabolisme du pyruvate par le CO, faisant ainsi du pyruvate le candidat idéal pour un système in situ de secours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le couplage neurovasculaire (CNV) est un mécanisme d’homéostasie cérébrale régulant le débit sanguin cérébral (CBF) en fonction de l’activité neuronale. La manière dont il est altéré par l’angiotensine II (Ang II), une hormone synthétisée et relâchée dans la circulation systémique ou, alternativement, produite dans le cerveau grâce aux astrocytes, demeure à élucider. Ces cellules expriment le récepteur AT1 (rAT1) et participent à l’orchestration du CNV en relâchant des agents vasoactifs suivant la réponse calcique astrocytaire. Nous avons donc étudié le rôle de cette réponse dans l’altération du CNV induite par l’Ang II. Nous avons trouvé par fluxmétrie par laser Doppler que l’Ang II atténue (p<0.05) la réponse du CBF engendrée par l’activation des récepteurs métabotropes du glutamate du groupe I (mGluRI) du cortex chez la souris C57BL/6. De manière similaire, l’Ang II diminue l'élévation du CBF induite par la stimulation des vibrisses (p<0.05). Sur tranches de cerveaux en aiguë, la polarité de la réponse vasculaire induite par un agoniste mGluRI dans les artérioles parenchymateuses a été significativement renversée par l’Ang II de la vasodilatation vers la vasoconstriction. En parallèle, l’Ang II a augmenté les niveaux de calcium astrocytaire basaux et l’amplitude des réponses calciques (p<0.05). L’altération des réponses vasculaires et calciques maximales a été prévenue par le candesartan, antagoniste des rAT1. Nos résultats suggèrent que l’Ang II potentialise via les rAT1 la réponse calcique qui atteint un seuil favorisant la vasoconstriction par rapport à la vasodilatation, altérant ainsi l’augmentation du CBF en réponse à l’activité neuronale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des lois sont adoptées, des politiques implantées, des centaines de milliers de dollars investis dans la formation des employés, et puis ? Cette recherche de type exploratoire tente de jeter la lumière sur ce qui se passe actuellement dans les points d'entrée canadiens situés au Québec en matière de lutte contre la traite de personnes migrantes et de présenter, s'il y a lieu, les incohérences entre l'engagement du Canada à lutter contre la traite de personnes et les pratiques des agents des services frontaliers du Canada sur le terrain. Pour ce faire, nous avons interviewé sept agents des services frontaliers du Canada travaillant à l'Aéroport international Pierre-Elliott-Trudeau de Montréal, quatrième poste frontalier aéroportuaire en importance au Canada et premier au Québec, afin d'en apprendre davantage sur les connaissances ainsi que sur les expériences de ceux-ci en matière de traite de personnes migrantes. Nous avons aussi rencontré quatre intervenants venant en aide aux victimes migrantes de la traite de personnes au Québec, principalement dans la région de Montréal, dans le but d'en savoir un peu plus sur l'expérience des victimes en lien avec l'Agence des services frontaliers du Canada et les impacts de ces expériences sur celles-ci. Si les agents interviewés semblent avoir une assez bonne idée, même si celle-ci paraît largement influencée par les médias, de ce qu'est la traite de personnes migrantes, rares sont ceux qui, dans le cadre de leurs fonctions, ont une expérience pratique auprès des victimes. L'absence de formation substantielle et continue, la perception du rôle de l'ASFC par ses agents ainsi que le manque de leadership de la direction en ce qui a trait à la traite de personnes migrantes semblent être des accrocs majeurs à la volonté politique du gouvernement canadien, plus particulièrement de l'Agence des services frontaliers du Canada, de combattre la traite de personnes migrantes sur son propre territoire. Les obstacles sont nombreux dans la lutte contre la traite de personnes aux frontières canadiennes et représentent un défi de taille à la fois complexe et compliqué. Une approche centrée sur la prévention et une plus grande sensibilisation des agents des services frontaliers du Canada proposent un début de solution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La multiplication dans le corps de Galois à 2^m éléments (i.e. GF(2^m)) est une opérations très importante pour les applications de la théorie des correcteurs et de la cryptographie. Dans ce mémoire, nous nous intéressons aux réalisations parallèles de multiplicateurs dans GF(2^m) lorsque ce dernier est généré par des trinômes irréductibles. Notre point de départ est le multiplicateur de Montgomery qui calcule A(x)B(x)x^(-u) efficacement, étant donné A(x), B(x) in GF(2^m) pour u choisi judicieusement. Nous étudions ensuite l'algorithme diviser pour régner PCHS qui permet de partitionner les multiplicandes d'un produit dans GF(2^m) lorsque m est impair. Nous l'appliquons pour la partitionnement de A(x) et de B(x) dans la multiplication de Montgomery A(x)B(x)x^(-u) pour GF(2^m) même si m est pair. Basé sur cette nouvelle approche, nous construisons un multiplicateur dans GF(2^m) généré par des trinôme irréductibles. Une nouvelle astuce de réutilisation des résultats intermédiaires nous permet d'éliminer plusieurs portes XOR redondantes. Les complexités de temps (i.e. le délais) et d'espace (i.e. le nombre de portes logiques) du nouveau multiplicateur sont ensuite analysées: 1. Le nouveau multiplicateur demande environ 25% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito lorsque GF(2^m) est généré par des trinômes irréductible et m est suffisamment grand. Le nombre de portes du nouveau multiplicateur est presque identique à celui du multiplicateur de Karatsuba proposé par Elia. 2. Le délai de calcul du nouveau multiplicateur excède celui des meilleurs multiplicateurs d'au plus deux évaluations de portes XOR. 3. Nous determinons le délai et le nombre de portes logiques du nouveau multiplicateur sur les deux corps de Galois recommandés par le National Institute of Standards and Technology (NIST). Nous montrons que notre multiplicateurs contient 15% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito au coût d'un délai d'au plus une porte XOR supplémentaire. De plus, notre multiplicateur a un délai d'une porte XOR moindre que celui du multiplicateur d'Elia au coût d'une augmentation de moins de 1% du nombre total de portes logiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Heavy Metal Generations » is the fourth volume in the series of papers drawn from the 2012 Music, Metal and Politics international conference (http://www.inter-disciplinary.net/publishing/product/heavy-metal-generations/).