932 resultados para Tape extrusion
Resumo:
Ce cahier de recherche fait état des travaux menés au cours de la première étape (2013-2014) du projet « Archives et création : nouvelles perspectives sur l’archivistique ». Il comprend les textes suivants : Yvon Lemay et Anne Klein, « Introduction », p. 4-6; Yvon Lemay, « Archives et création : nouvelles perspectives sur l’archivistique », p. 7-19; Anne-Marie Lacombe, « Exploitation des archives à des fins de création : un aperçu de la littérature », p. 20-59; Simon Côté-Lapointe, « Archives sonores et création : une pratique à la croisée des chemins », p. 60-83; Hélène Brousseau, « Fibres, archives et société », p. 84-104; Annie Lecompte-Chauvin, « Comment les archives entrent dans nos vies par le biais de la littérature », p. 105-120; Aude Bertrand, « Valeurs, usages et usagers des archives », p. 121-150; Laure Guitard, « Indexation, émotions, archives », p. 151-168; Anne Klein, Denis Lessard et Anne-Marie Lacombe, « Archives et mise en archives dans le champ culturel. Synthèse du colloque « Archives et création, regards croisés : tournant archivistique, courant artistique », p. 169-178. De plus, dans le but de situer le projet dans un contexte plus large, le cahier inclut une bibliographie des travaux effectués sur les archives et la création depuis 2007, p. 179-182.
Resumo:
Cette thèse traite de la chimie des complexes pinces de Ni(II) ainsi que des complexes cyclométallés de Ni(II) comportant au moins un motif phosphinite. Elle se divise en trois parties. La première concerne la synthèse, la caractérisation, le mécanisme de formation et la réactivité des complexes pinces de Ni(II) à base de ligand de type POCOP 1,3-(i-Pr2PO)2C6H4. De nouveaux ligands de type R-(POCOP) = κP,κC,κP-{Rn-2,6-( R'2PO)2C6H4-n}; Rn = 4-OMe, 4-Me, 4-CO2Me, 3-OMe, 3- CO2Me, 3,5-t-Bu2 ; R' = i-Pr, t-Bu ont été synthétisés suite à l'addition de chlorophosphine ClPR'2 à une solution de résorcinol ou dérivés en présence de base. La synthèse des complexes R-(POCOP)Ni(Br) s'effectue à partir du ligand correspondant en présence de base, et de {NiBr2(NCiPr)}n. Ce nouveau précurseur de nickel est synthétisé à partir de brome de nickel métallique dans l'isobutyronitrile. Il est stable sous atmosphère inerte et sa solubilité dans les solvants polaires permet d'étudier les synthèses des complexes en milieu homogène. Le mécanisme de formation des complexes portant des ligand pinces (PCsp3P) 1,3-(i- Pr2PCH2CH2)2CH2, (POCsp3OP) 1,3-(i-Pr2POCH2)2CH2, (PCsp2P) 1,3-(i- Pr2PCH2)2C6H4, Rn-(POCsp2OP) 1,3-(i-Pr2PO)2C6H4-n via nickellation du lien C-H a été investigué avec une méthode de réaction de compétition. Cette étape a été déterminée comme étant de nature électrophile. Les complexes résultants ont été complètement caractérisés. Une corrélation a notamment été effectuée entre le déplacement chimique du Cipso en spectroscopie RMN 13C et le potentiel d'oxydation Eox en voltamétrie cyclique. Une nouvelle méthode de synthèse directe verte "one pot" a été mise en place. En faisant réagir à 75 °C un mélange hétérogène de II résorcinol, de chlorodiisopropylphosphine et de nickel métallique en poudre, on obtient le complexes pince (POCOP)Ni(Cl) avec des rendements allant jusqu'à 93%. La réactivité de ces complexes POCOP a été investiguée pour des réactions de fluorination et trifluorométhylation des halogénures d'alkyle. La synthèse du (POCOP)Ni(F) a lieu à partir de précurseur (POCOP)Ni(X) (X=Br, Cl), en présence d'un large excès de fluorure d'argent AgF. Ce complexe catalyse la fluorination du bromure de benzyle et peut être converti en (POCOP)Ni(CF3) en présence de réactif du Ruppert, Me3SiCF3. La réaction entre (POCOP)Ni(CF3) et le bromure de benzyle dans les solvants aromatiques mène à la conversion totale du complexe en (POCOP)Ni(Br) et à l'inattendue benzylation du solvant aromatique utilisé. La seconde partie concerne la synthèse des nouveaux complexes non symétriques à base de ligands comportant un motif imidazolo-phosphine (PIMCOP) 3-[2-(R2P)-C3H2N2]-(R2PO)-C6H3, imidazoliophosphine (PIMIOCOP) 3-[2-(R2P)-3- (CH3)-C3H2N2]-(R2PO)-C6H3] et carbène N-hétérocyclique (NHCCOP). La double déprotonation du 3-hydroxyphenyl-imidazole suivi de l'addition de deux équivalents de chlorodiphenylphosphine mène à l'obtention du ligand PIMCOP 3-[3-(CH3)- C3H2N2]-(R2PO)-C6H3. L'étape de nickellation a lieu comme dans le cas des composés (POCOP)Ni. La méthylation du motif imidazole du (PIMCOP)Ni(Br) par le triflate de méthyle MeOTf, donne le dérivé (PIMIOCOP)Ni(Br). Ce dernier est converti en (NHCCOP)Ni(Br) après l'addition de chlorure de tétraéthylamonium NEt4Cl. Les analogues i-Pr2P de ces complexes sont synthétisés en remplaçant ClPPh2 par ClPiPr2. On obtient les espèces cationiques [(PIMCOP)Ni(NCCH3)][OTf], [(PIMIOCOP)Ni(NCCH3)][OTf]2 et III [(NHCCOP)Ni(NCCH3)][OTf] suite à l'addition en solution dans l'acétonitrile de triflate d'argent AgOTf. Ces espèces ont été utilisés comme catalyseurs pour la synthèse d'amidine à partir de benzonitrile et de diverse amines aliphatiques. Enfin des complexes orthonickellés trans-Ni[(ĸ2-P,C-P(OC6H4)-(iPr2)( iPr2P(OC6H5))]Br à base de phosphinite ont été synthétisés et caractérisés. Les ligands sont synthétisés par réaction d'un phénol et de chlorodiisopropylphosphine en présence de base. L'ajout de {NiBr2(NCiPr)}n et de triéthylamine permet l'orthométallation via une étape de nickellation C-H. Un intermédiaire trans- [NiBr2{PiPr2(OC6H5)}2] de cette réaction a été isolé. Le complexe dimère peut réagir avec des espèces électrophiles mener à l'ortho-fonctionnalisation de la phosphinite.
Resumo:
Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).
Resumo:
À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.
Resumo:
Les résultats ont été analysés à l'aide du logiciel SPSS
Resumo:
Cette recherche s’intéresse aux enjeux de l’habitat de demain de la génération des baby-boomers, tout particulièrement ceux nés entre 1945 et 1953, qui arrivent aujourd’hui à la retraite. C’est au carrefour de la vision de ce que signifie habiter selon des auteurs comme Benoit Goetz ( 2011), des philosophes comme Heidegger (1958), Bachelard (1957), Benjamin (1955), Büber (1962) ou encore Deleuze (1980) d’une part, soulignant les facteurs de porosité et les liens aux autres, et d’autre part les caractéristiques des baby-boomers telles que présentées par Jean François Sirinelli (2003) et Josée Garceau (2012), que se situe la recherche. Cette génération informée entend rester active et pratique des « adeptions » qui influencent par les gestes un savoir habiter et par là son habitat. L’étude de terrain a sondé les aspirations des baby-boomers en ce qui concerne leur choix résidentiel pour l’avenir, pour comprendre sur quelles valeurs et vers quels buts leur projet se construit. Le choix de méthodologies qualitatives s’appuie sur le visionnement préalable d’un film récent : Et si on vivait tous ensemble. Des entretiens semi-dirigés, auprès de cinq baby-boomers, de 60 à 65 ans, effectués en deux phases avec verbatim approuvés,étaient basés sur trois thèmes : la mémoire, l’adeption et le projet. Entre autres résultats, sont confirmés avec variantes, plusieurs concepts théoriques, comme ceux de porosité et d’ouverture par la fenêtre à la fois physique et virtuelle, mais soulignent le spectre de la maison de retraite et des préoccupations financières concernant l’avenir d’un habitat nécessairement autonome. Cette génération imprégnée par le monde technologique veut avoir accès à tout ce que propose la modernité sans pour autant perdre le sens de l’historicité de leur vie. Nés dans un monde en bouillonnement, les baby-boomers ont réinventé chaque étape de leur existence, ce qui laisse préfigurer que cette génération s’apprête à réinventer la retraite et ses sites domiciliaires. Aussi l’approche design devra-t-elle complètement se renouveler pour ces nouveaux usagers.
Resumo:
Cette thèse prend pour objet le nouage entre l’autoréflexivité et la mise en forme esthétique dans la poésie de Christophe Tarkos, produite dans les années 1990. Elle met en lumière les rapports entre l’élaboration d’une théorie du langage au sein de cette œuvre poétique et ses visées esthétiques totalisantes. Il s’agit d’identifier les principes générateurs de la théorie et de fournir une analyse de ses fondements qui s’ancrent dans la crise de la représentation moderne commençant dans la deuxième moitié du dix-neuvième siècle. Les motifs de la crise revisités par Tarkos inscrivent sa poésie dans une historicité, et notre thèse tente d’interpréter cette actualisation dans une œuvre qui donne forme au monde et à la mémoire individuelle. L’hypothèse qui chapeaute notre étude est que la théorie du langage favorise l’intelligibilité de l’œuvre totalisante en lui offrant un support réflexif. Notre thèse, qui privilégie une méthode fondée sur l’analyse des textes, se divise en trois parties. La première propose une recension de la réception critique de l’œuvre, dont nous retraçons les grandes lignes d’interprétation, de Christian Prigent à Jean-Michel Espitallier. Tout en plaçant Tarkos dans le champ poétique français, cette étape nous permet de positionner notre recherche par rapport à certains lieux communs de la critique. La deuxième partie vise à étudier la théorie du langage de Tarkos à partir de ses manifestes principaux (Le Signe =, Manifeste chou, Ma langue est poétique et La poésie est une intelligence) qui révèlent plusieurs principes, pouvoirs et limites de la langue et de la poésie. Afin de montrer la spécificité du concept de la « pâte-mot » de Tarkos, nous l’étudions dans un dialogue avec la figure de la « pâte » langagière chez la poète française Danielle Collobert. La troisième partie propose une étude de la volonté et de l’esthétique totalisantes dans l’œuvre de Tarkos, qui cherche à donner forme au réel. En effet, la poésie répond à l’excès du réel par diverses stratégies. Tout en voulant représenter son caractère débordant par une énonciation logorrhéique ou en usant de procédés comme celui de la répétition, elle cherche à le maîtriser dans des formes textuelles stables comme des fragments de prose « carrés » (Carrés, Caisses), dans des listes énumératives (Anachronisme) ou dans des réseaux d’images. La volonté totalisante chez Tarkos semble également prendre origine dans un sentiment d’urgence qui concerne, en dernière instance, une bataille contre la finitude.
Resumo:
Les souvenirs sont encodés dans le cerveau grâce aux configurations uniques de vastes réseaux neuronaux. Chaque connexion dans ces circuits est apte à être modifiée. Ces changements durables s’opèrent au niveau des synapses grâce à une synthèse de protéines de novo et génèrent ce qu’on nomme des traces mnésiques. Plusieurs preuves indiquent que, dans certaines formes de plasticité synaptique à long terme, cette synthèse a lieu dans les dendrites près des synapses activées plutôt que dans le corps cellulaire. Cependant, les mécanismes qui régulent cette traduction de protéines demeurent encore nébuleux. La phase d’initiation de la traduction est une étape limitante et hautement régulée qui, selon plusieurs chercheurs, constitue la cible principale des mécanismes de régulation de la traduction dans la plasticité synaptique à long terme. Le présent projet de recherche infirme cette hypothèse dans une certaine forme de plasticité synaptique, la dépression à long terme dépendante des récepteurs métabotropiques du glutamate (mGluR-LTD). À l’aide d’enregistrements électrophysiologiques de neurones hippocampiques en culture couplés à des inhibiteurs pharmacologiques, nous montrons que la régulation de la traduction implique les étapes de l’élongation et de la terminaison et non celle de l’initiation. De plus, nous démontrons grâce à des stratégies de knockdown d’expression d’ARN que la protéine de liaison d’ARNm Staufen 2 joue un rôle déterminant dans la mGluR-LTD induite en cultures. Dans leur ensemble, les résultats de la présente étude viennent appuyer un modèle de régulation de la traduction locale de protéines qui est indépendante de l’initiation.
Resumo:
Il est connu que les personnes ayant une hémiparésie à la suite d’un accident vasculaire cérébral (AVC) présentent une mise en charge (MEC) asymétrique lors de la station debout et lors du passage assis à debout (PAD). Par contre, peu d’études ont quantifié l’évolution de la MEC avec la réadaptation ou la précision avec laquelle ces personnes sont capables de la juger. L’objectif principal de ce projet était d’étudier l’évolution de la répartition et la perception de MEC en position debout et lors du PAD chez des personnes hémiparétiques en réadaptation fonctionnelle intensive (RFI). Un objectif secondaire était d’identifier les facteurs qui caractérisent les personnes hémiparétiques les plus asymétriques et les plus atteintes dans leur perception. Cette étude a été menée auprès de seize participants. Les résultats ont démontré qu’une asymétrie de répartition de l’appui en faveur du côté non parétique est présente dès les premiers mois après l’AVC et qu’elle persiste malgré la RFI. Chez les personnes avec une atteinte sévère de la fonction motrice, la MEC était plus symétrique pour le PAD que la station debout. En termes de perception, les personnes hémiparétiques étaient capables d’identifier le côté sur lequel ils mettaient plus d’appui mais ils avaient tendance à surestimer l’appui sur le côté parétique et donc à se juger moins asymétriques qu’ils ne l’étaient en réalité. Très peu de changements ont été observés lorsque les données au congé étaient comparées aux données à l’entrée dans l’étude. En réponse à l’objectif secondaire, la fonction motrice du membre inférieur parétique évaluée par le Chedoke et la différence de force des extenseurs entre les genoux étaient les facteurs les plus déterminants de l’asymétrie et de la perception de MEC. Les résultats obtenus constituent donc une étape supplémentaire vers la compréhension de la répartition asymétrique et les troubles de perception de MEC lors de la station debout et le PAD chez les personnes hémiparétiques. Il serait intéressant dans le futur d’explorer davantage les facteurs susceptibles d’influencer l’asymétrie et la perception de MEC et d’objectiver la relation de cause à effet entre ces deux variables en plus de préciser l’effet réel de l’asymétrie sur la stabilité posturale.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
L’infertilité affecte jusqu’à 15-20% des couples en âge de se reproduire. C’est pourquoi, mieux comprendre les mécanismes à la base de la fécondation est essentiel pour l’identification de nouvelles causes d’infertilité et l’optimisation des techniques de reproduction assistée. La capacitation est une étape de la maturation des spermatozoïdes qui se déroule dans le tractus génital femelle. Elle est requise pour la fécondation d’un ovocyte. Notre laboratoire a démontré que des protéines du plasma séminal bovin, appelées protéines Binder of SPerm (BSP), se lient aux phospholipides portant des groupements choline à la surface de la membrane des spermatozoïdes lors de l’éjaculation et promeuvent la capacitation. Ces protéines exprimées par les vésicules séminales sont ubiquitaires chez les mammifères et ont été étudiées chez plusieurs espèces dont l’étalon, le porc, le bouc et le bélier. Récemment, l’expression de gènes homologues aux BSP a été découverte dans les épididymes d’humains (BSPH1) et de souris (Bsph1 et Bsph2). Notre hypothèse est que les BSP chez ces deux espèces sont ajoutées aux spermatozoïdes lors de la maturation épididymaire et ont des rôles dans les fonctions spermatiques, similaires à ceux des protéines BSP bovines. Les protéines BSP humaines et murines représentent une faible fraction des protéines totales du plasma séminal. Pour cette raison, afin d’étudier leurs caractéristiques biochimiques et fonctionnelles, des protéines recombinantes ont été produites. Les protéines recombinantes ont été exprimées dans des cellules Escherichia coli origami B(DE3)pLysS en utilisant un vecteur d’expression pET32a. Suivant la lyse cellulaire, les protéines ont été dénaturées avec de l’urée et purifiées par chromatographie d’affinité sur ions métalliques immobilisés. Une fois liées à la colonne, les protéines ont été repliées à l’aide d’un gradient d’urée décroissant avant d’être éluées. Cette méthode a mené à la production de trois protéines recombinantes (rec-BSPH1 humaine, rec-BSPH1 murine et rec-BSPH2 murine) pures et fonctionnelles. Des expériences de chromatographie d’affinité et de co-sédimentation nous ont permis de démontrer que les trois protéines peuvent se lier à des ligands connus des protéines BSP comme la gélatine et l’héparine en plus de pouvoir se lier aux spermatozoïdes. Nos études ont également révélées que les deux protéines rec-BSPH1 peuvent se lier aux liposomes de phosphatidylcholine (PC) et sont capable de promouvoir la capacitation des spermatozoïdes. À l’opposé, rec-BSPH2 ne peut ni se lier aux liposomes de PC, ni stimuler la capacitation. Finalement, les protéines recombinantes n’ont aucun effet sur la réaction acrosomique ou sur la motilité des spermatozoïdes. Chez les bovins, les protéines BSP induisent la capacitation grâce des interactions avec les lipoprotéines de haute densité (HDL) et les glycosaminoglycanes. Puisque le HDL est également un joueur important de la capacitation chez la souris, le rôle de la protéine native BSPH1 murine au niveau de la capacitation induite par le HDL a été étudié. Les résultats obtenus suggèrent que, in vivo, la protéine BSPH1 de souris serait impliquée dans la capacitation via une interaction directe avec le HDL. Comme les protéines BSPH1 humaines et murines sont orthologues, ces résultats pourraient aussi s’appliquer à la fertilité humaine. Les résultats présentés dans cette thèse pourraient mener à une meilleure compréhension de la fertilité masculine et aider à améliorer les techniques de reproduction assistée. Ils pourraient également mener au développement de nouveaux tests diagnostiques ou de contraceptifs masculins.
Resumo:
Les Granule de Stress (GS) sont des inclusions cytoplasmiques contenant des protéines et des ARNm qui s’assemblent en réponse à l’exposition à un stress. Leur formation fait partie intégrante de la réponse cellulaire au stress et est considérée comme une étape déterminante pour la résistance au stress et la survie cellulaire. Actuellement, les GS sont reliés à divers pathologies allant des infections virales aux maladies neurovégétatives. L’une d’entre elle, la Sclérose Latérale Amyotrophique (SLA) est particulièrement agressive, caractérisée par une perte des neurones moteurs aboutissant à la paralysie et à la mort du patient en cinq ans en moyenne. Les mécanismes de déclenchement de la pathologie restent encore à déterminer. TDP-43 (TAR DNA binding protein 43) et FUS (Fused in liposarcoma) sont deux protéines reliées à la pathologie qui présentent des similarités de structure et de fonction, suggérant un mécanisme commun de toxicité. TDP-43 et FUS sont toutes les deux recrutées au niveau des GS en condition de stress. Nous avons démontré pour la première fois que la fonction des GS est de protéger les ARNm de la dégradation induite par l’exposition au stress. Cette fonction n’était que suspectée jusqu’alors. De plus nous avons mis en évidence que G3BP1 (Ras GTPase-activating protein-binding protein 1) est l’effectrice de cette fonction via son implication dans la dynamique de formation des GS. TDP-43 étant un régulateur de G3BP1, nous prouvons ainsi que la perte de fonction de TDP-43/G3BP1 aboutit à un défaut de réponse au stress aboutissant à une vulnérabilisation cellulaire. Le mécanisme de toxicité emprunter par FUS diffère de celui de TDP-43 et ne semble pas passer par une perte de fonction dans le cadre de la réponse au stress.
Resumo:
Pour des raisons de limitation, cette thèse analyse le thème de la réconciliation à partir des pratiques traditionnelles des Baluba du Katanga; elle concerne et s'applique également aux autres ethnies bantu en Afrique Centrale où ces pratiques sont similaires.
Resumo:
De par sa présence dans tous les vaisseaux sanguins, l'endothélium joue un rôle clef dans le processus d’hémostase, tant par sa libération de facteurs anticoagulants que par ses changements protéiques qui permettent à l’organisme de déclencher la réparation tissulaire. La fonction anticoagulante de l’endothélium peut être mise en défaut en cas d’atteinte de son intégrité, entrainant la formation de thrombus, le rejet précoce de greffes ou encore l’induction de l’athérosclérose. L’intégrité de l’endothélium est donc capitale pour la prévention de nombreuses maladies cardiovasculaires. Chez l’adulte, les cellules endothéliales (CE), normalement quiescentes, sont rapidement activées en cas d’hypoxie ou d’inflammation, leur permettant ainsi d’amorcer le processus angiogénique comme suit: Tout d’abord, l’induction de l’hyperperméabilité vasculaire permet l’extravasation des protéines plasmatiques. Ensuite, la dégradation de la lame basale par des métalloprotéases permet aux CE de se détacher, de proliférer, de migrer et de s’organiser pour former l’ébauche du futur vaisseau. La dernière étape consiste en la maturation du vaisseau, c’est-à-dire son recouvrement par des cellules murales, telles que les cellules musculaires lisses et les péricytes. Ces processus sont régulés par de nombreux facteurs angiogéniques tels que les membres de la famille Notch, du vascular endothelial growth factor (VEGF), du fibroblast growth factor (FGF), des angiopoïétines, et des matrix metalloproteases (MMP). L’angiogenèse pathologique, soit une insuffisance ou un excès de vascularisation, est impliquée dans les blessures chroniques, les accidents cardiovasculaires, les pathologies coronariennes artérielles, les pathologies tumorales, l’arthrite rhumatoïde, la rétinopathie diabétique, l’athérosclérose, le psoriasis et l’asthme. Ces pathologies sont souvent issues d’une dérégulation de l’activité endothéliale, fréquemment observée conjointement à l’expression continue de molécules d’adhésion leucocytaires, à l’augmentation de la perméabilité vasculaire, et aux anomalies de la vasoréactivité. L’activation non-contrôlée de l’endothélium entraîne ainsi une inflammation chronique et la formation de structures vasculaires anarchiques. Les premiers leucocytes à répondre à l’appel inflammatoire sont les neutrophiles. Equippées d’une panoplie de produits antibactériens puissants mais aussi nocifs pour les tissus qui les entourent, ces cellules polylobées participent à chaque étape du processus inflammatoire, depuis l’induction de l’hyperperméabilité vasculaire jusqu’à la résolution. En effet, grâce à leurs récepteurs, les neutrophiles détectent et interprètent les signaux biochimiques présents dans la circulation et à la surface de l’endothélium, et libèrent aussi leurs propres médiateurs tels le VEGF, les MMP, et l’interleukine-8 (IL-8), dont les effets sont à la fois paracrines et autocrines. Existent-ils d’autres modulateurs typiques de la fonction endothéliale capables d’influencer le comportement des neutrophiles? En effet, notre laboratoire a démontré que chez l’humain, une stimulation directe aux angiopoïétines incitait les neutrophiles à adhérer aux CE, à migrer, à synthétiser et à relâcher l’IL-8, voire même à vivre plus longtemps. La présence du récepteur des angiopoïétines, Tie2, à la surface des neutrophiles laisse présager que la famille possèderait d’autres fonctions leucocytaires encore non-identifiées. Par ailleurs, dans un modèle classique de l’angiogenèse in vivo (matrigel), nous avons observé que sous l’effet du FGF1 et 2, les ébauches des nouveaux vaisseaux étaient parfois accompagnées d’une infiltration de cellules granulocytaires. Ainsi, en partant de ces observations, l’objectif de nos études (présentées ci-après) était d’approfondir nos connaissances sur la relation entre neutrophiles et facteurs angiogéniques, notamment les FGF et les angiopoïétines. Par tests in vitro, nous avons confirmé que les neutrophiles humains exprimaient plusieurs récepteurs du FGF (FGFR1-4) d’une façon hétérogène, et qu’ils migraient vers un gradient des ligands FGF1 et 2. Par ailleurs, nous nous sommes intéressés aux voies de signalisation inflammatoires activées par les ligands FGF1, FGF2, Ang1 et Ang2. Grâce à une stratégie génique ciblant 84 gènes inflammatoires, nous avons identifié plusieurs cibles d’intérêt touchées par Ang1, dont certains membres de la famille de l’IL-1, alors qu’aucun des gènes testés n’avait changé de façon significative sous l’effet des FGF ou d’Ang2. Suite à des cinétiques approfondies, nous avons démontré qu’Ang1 stimulait la transcription de l’ARN messager de l’IL-1β, et augmentait simultanément la quantité de protéine immature (pro-IL-1β; inactive) et clivée (IL-1β « mature »; active). En parallèle, Ang1 augmentait la sécrétion de l’antagoniste naturel de l’IL-1β, l’IL-1RA, sans pour autant stimuler la relâche de l’IL-1β. A l’instar des endotoxines bactériennes dont les effets liés à l’IL-1 dépendaient de la kinase p38, ceux d’Ang1 découlaient presque entièrement des voies de signalisation du p42/44.