966 resultados para Laminated tape


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec la mise en place de la nouvelle limite maximale de 400 000 cellules somatiques par millilitres de lait (c/mL) au réservoir, le mois d’août 2012 a marqué une étape importante en termes de qualité du lait pour les producteurs de bovins laitiers du Canada. L’objectif de cette étude consistait en l’établissement d’un modèle de prédiction de la violation de cette limite au réservoir à l’aide des données individuelles et mensuelles de comptages en cellules somatiques (CCS) obtenues au contrôle laitier des mois précédents. Une banque de donnée DSA comprenant 924 troupeaux de laitiers québécois, en 2008, a été utilisée pour construire un modèle de régression logistique, adapté pour les mesures répétées, de la probabilité d’excéder 400 000 c/mL au réservoir. Le modèle final comprend 6 variables : le pointage linéaire moyen au test précédent, la proportion de CCS > 500 000 c/mL au test précédent, la production annuelle moyenne de lait par vache par jour, le nombre de jours en lait moyen (JEL) au test précédent ainsi que les proportions de vaches saines et de vaches infectées de manière chronique au test précédant. Le modèle montre une excellente discrimination entre les troupeaux qui excèdent ou n’excèdent pas la limite lors d’un test et pourrait être aisément utilisé comme outil supplémentaire de gestion de la santé mammaire à la ferme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat porte sur la catalyse à partir de métaux de transition et sur la substitution homolytique aromatique favorisée par une base visant à former de nouvelles liaisons C–C, et à ainsi concevoir de nouvelles structures chimiques. Au cours des vingt dernières années, des nombreux efforts ont été réalisés afin de développer des méthodologies pour la fonctionnalisation de liens C–H, qui soient efficaces et sélectives, et ce à faible coût et en produisant le minimum de déchets. Le chapitre d'introduction donnera un aperçu de la fonctionnalisation directe de liens C–H sur des centres sp2 et sp3. Il sera également discuté dans cette partie de certains aspects de la chimie radicalaire reliés a ce sujet. Les travaux sur la fonctionnalisation d’imidazo[1,5-a]pyridines catalysée par des compleces de ruthénium seront présentés dans le chapitre 2. Malgré l'intérêt des imidazo[1,5-a]azines en chimie médicinale, ces composés n’ont reçu que peu d'attention dans le domaine de la fonctionnalisation de liens C–H. L'étendue de la réaction et l'influence des effets stériques et électroniques seront détaillés. Les cyclopropanes représentent les 10ème cycles carbonés les plus rencontrés dans les petites molécules d’intérêt pharmacologique. Ce sont aussi des intermédiaires de synthèse de choix pour la création de complexité chimique. Malgré de grands progrès dans le domaine de la fonctionnalisation de liens C(sp3)–H, l'étude des cyclopropanes comme substrats dans les transformations directes est relativement nouvelle. Le chapitre trois présentera l'arylation intramoléculaire directe de cyclopropanes. Cette réaction est réalisée en présence de palladium, en quantité catalytique, en combinaison avec des sels d’argent. Des études mécanistiques ont réfuté la formation d'un énolate de palladium et suggéreraient plutôt une étape de métallation - déprotonation concertée. En outre, les cycles de type benzoazepinone à sept chaînons ont été synthétisés par l'intermédiaire d'une séquence d'activation de cyclopropane/ouverture/cyclisation. Une arylation directe intermoléculaire des cyclopropanes a été réalisée en présence d'un auxiliaire de type picolinamide (Chapitre 4). Les deux derniers chapitres de ce mémoire de thèse décriront nos études sur la substitution homolytique aromatique favorisée par une base. Le mécanisme de la réaction de cyclisation intramoléculaire d'halogénures d'aryle, réalisée en présence de tert-butylate de potassium, a été élucidé et se produit via une voie radicalaire (Chapitre 5). La transformation, exempte de métaux de transition, ne nécessite que la présence d’une base et de pyridine comme solvant. Cette réaction radicalaire a été étendue à la cyclisation d'iodures d'alkyle non activés en présence d'un catalyseur à base de nickel et de bis(trimethylsilyl)amidure de sodium comme base (Chapitre 6). Des études de RMN DOSY ont démontré une association entre le catalyseur, la base et le matériel de départ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’intérieur de la cellule sillonnent d’innombrables molécules, certaines par diffusion et d’autres sur des routes moléculaires éphémères, empruntées selon les directives spécifiques de protéines responsables du trafic intracellulaire. Parmi celles-ci, on compte les sorting nexins, qui déterminent le sort de plusieurs types de protéine, comme les récepteurs, en les guidant soit vers des voies de dégradation ou de recyclage. À ce jour, il existe 33 membres des sorting nexins (Snx1-33), tous munies du domaine PX (PHOX-homology). Le domaine PX confère aux sorting nexins la capacité de détecter la présence de phosphatidylinositol phosphates (PIP), sur la surface des membranes lipidiques (ex : membrane cytoplasmique ou vésiculaire). Ces PIPs, produits de façon spécifique et transitoire, recrutent des protéines nécessaires à la progression de processus cellulaires. Par exemple, lorsqu’un récepteur est internalisé par endocytose, la région avoisinante de la membrane cytoplasmique devient occupée par PI(4,5)P2. Ceci engendre le recrutement de SNX9, qui permet la progression de l’endocytose en faisant un lien entre le cytoskelette et le complexe d’endocytose. Les recherches exposées dans cette thèse sont une description fonctionnelle de deux sorting nexins peux connues, Snx11 et Snx30. Le rôle de chacun de ces gènes a été étudié durant l’embryogenèse de la grenouille (Xenopus laevis). Suite aux résultats in vivo, une approche biomoléculaire et de culture cellulaire a été employée pour approfondir nos connaissances. Cet ouvrage démontre que Snx11 est impliqué dans le développement des somites et dans la polymérisation de l’actine. De plus, Snx11 semble influencer le recyclage de récepteurs membranaires indépendamment de l’actine. Ainsi, Snx11 pourrait jouer deux rôles intracellulaires : une régulation actine-dépendante du milieu extracellulaire et le triage de récepteurs actine-indépendant. De son côté, Snx30 est impliqué dans la différentiation cardiaque précoce par l’inhibition de la voie Wnt/β-catenin, une étape nécessaire à l’engagement d’une population de cellules du mésoderme à la ligné cardiaque. L’expression de Snx30 chez le Xénope coïncide avec cette période critique de spécification du mésoderme et le knockdown suscite des malformations cardiaques ainsi qu’à d’autres tissus dérivés du mésoderme et de l’endoderme. Cet ouvrage fournit une base pour des études futures sur Snx11 et Snx30. Ces protéines ont un impact subtil sur des voies de signalisation spécifiques. Ces caractéristiques pourraient être exploitées à des fins thérapeutiques puisque l’effet d’une interférence avec leurs fonctions pourrait être suffisant pour rétablir un déséquilibre cellulaire pathologique tout en minimisant les effets secondaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à augmenter les connaissances sur le processus d’insertion professionnelle des nouveaux directeurs et directeurs adjoints du primaire et du secondaire au Québec lors de la première année en fonction. Pour mieux connaître cette étape de la vie professionnelle, quatre dimensions du processus d’insertion professionnelle ont été étudiées : la nature de la tâche, le contexte d’exercice, le soutien et l’accompagnement et les caractéristiques motivationnelles. Le sentiment d’empowerment des nouveaux gestionnaires a été étudié simultanément afin d’examiner leur motivation à exercer la nouvelle fonction. La question générale de la recherche était de savoir si la mesure du sentiment d’empowerment utilisé pour traiter de la motivation pouvait apporter de l’information sur la façon dont se vit le processus d’insertion professionnelle des nouveaux directeurs et directeurs adjoints d’établissement d’enseignement. Les données ont été recueillies auprès de dix nouveaux directeurs et directeurs adjoints d’établissement. Une conception de l’insertion professionnelle en tant que processus ayant été retenue, chaque participant a été rencontré à trois moments au cours de l’année scolaire, soit quelques semaines après l’entrée en fonction, au milieu de l’année et à la fin de celle-ci. Lors de chaque rencontre, les participants ont été interrogés à l’aide d’une grille d’entrevue semi-dirigée sur les quatre dimensions du processus d’insertion professionnelle mentionnées précédemment. Ils complétaient par la suite un questionnaire pour mesurer le sentiment d’empowerment. Ce questionnaire est une adaptation validée par Boudreault (1990) d’un outil développé par Tymon (1988). La recherche tend à confirmer l’utilité du sentiment d’empowerment comme source d’information sur le déroulement du processus d’insertion professionnelle. Ainsi, des relations semblent possibles entre le sentiment d’empowerment et certains aspects étudiés. Il s’agit de relations qu’il faudra cependant analyser avec de plus grands échantillons pour les valider. Tout d’abord, concernant la nature de la tâche, les constats indiquent que les directeurs adjoints affichant les meilleurs sentiments d’empowerment géraient moins de dossiers différents et que la plupart des dossiers dont ils étaient responsables faisaient appel à des habiletés développées antérieurement lors d’affectation intérimaire ou lors de leur participation à des comités à titre d’enseignants. De plus, ces participants avaient moins de gestion de personnel à effectuer, et particulièrement au regard du personnel de soutien. Ensuite, une tendance marquée a ensuite été constatée en ce qui concerne le soutien et l’accompagnement. Il est apparu que les participants (directeurs et directeurs adjoints) avec les meilleurs sentiments d’empowerment étaient ceux qui bénéficiaient du meilleur soutien et accompagnement de leur supérieur immédiat. Puis, en ce qui a trait aux caractéristiques motivationnelles, les participants exprimant les meilleurs sentiments d’empowerment se sentaient plus capables d’accomplir leur tâche et remettaient moins en question l’exercice de leur fonction. La recherche a indiqué d’autres relations possibles entre le sentiment d’empowerment et certains aspects des dimensions de l’insertion professionnelle, qui bien que moins marquées dans l’échantillon, mériteraient d’être approfondies dans des travaux futurs. Il s’agit de la relation entre le sentiment d’empowerment et le climat organisationnel de l’établissement, de la marge de manœuvre consentie dans l’exercice de la fonction et de la motivation des directeurs adjoints à postuler à un poste de directeur. Finalement, la recherche a mis en lumière la conviction des nouveaux directeurs de vivre une nouvelle phase d’insertion professionnelle et la différence entre les tâches des directeurs adjoints du primaire et ceux du secondaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce cahier de recherche fait état des travaux menés au cours de la première étape (2013-2014) du projet « Archives et création : nouvelles perspectives sur l’archivistique ». Il comprend les textes suivants : Yvon Lemay et Anne Klein, « Introduction », p. 4-6; Yvon Lemay, « Archives et création : nouvelles perspectives sur l’archivistique », p. 7-19; Anne-Marie Lacombe, « Exploitation des archives à des fins de création : un aperçu de la littérature », p. 20-59; Simon Côté-Lapointe, « Archives sonores et création : une pratique à la croisée des chemins », p. 60-83; Hélène Brousseau, « Fibres, archives et société », p. 84-104; Annie Lecompte-Chauvin, « Comment les archives entrent dans nos vies par le biais de la littérature », p. 105-120; Aude Bertrand, « Valeurs, usages et usagers des archives », p. 121-150; Laure Guitard, « Indexation, émotions, archives », p. 151-168; Anne Klein, Denis Lessard et Anne-Marie Lacombe, « Archives et mise en archives dans le champ culturel. Synthèse du colloque « Archives et création, regards croisés : tournant archivistique, courant artistique », p. 169-178. De plus, dans le but de situer le projet dans un contexte plus large, le cahier inclut une bibliographie des travaux effectués sur les archives et la création depuis 2007, p. 179-182.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse traite de la chimie des complexes pinces de Ni(II) ainsi que des complexes cyclométallés de Ni(II) comportant au moins un motif phosphinite. Elle se divise en trois parties. La première concerne la synthèse, la caractérisation, le mécanisme de formation et la réactivité des complexes pinces de Ni(II) à base de ligand de type POCOP 1,3-(i-Pr2PO)2C6H4. De nouveaux ligands de type R-(POCOP) = κP,κC,κP-{Rn-2,6-( R'2PO)2C6H4-n}; Rn = 4-OMe, 4-Me, 4-CO2Me, 3-OMe, 3- CO2Me, 3,5-t-Bu2 ; R' = i-Pr, t-Bu ont été synthétisés suite à l'addition de chlorophosphine ClPR'2 à une solution de résorcinol ou dérivés en présence de base. La synthèse des complexes R-(POCOP)Ni(Br) s'effectue à partir du ligand correspondant en présence de base, et de {NiBr2(NCiPr)}n. Ce nouveau précurseur de nickel est synthétisé à partir de brome de nickel métallique dans l'isobutyronitrile. Il est stable sous atmosphère inerte et sa solubilité dans les solvants polaires permet d'étudier les synthèses des complexes en milieu homogène. Le mécanisme de formation des complexes portant des ligand pinces (PCsp3P) 1,3-(i- Pr2PCH2CH2)2CH2, (POCsp3OP) 1,3-(i-Pr2POCH2)2CH2, (PCsp2P) 1,3-(i- Pr2PCH2)2C6H4, Rn-(POCsp2OP) 1,3-(i-Pr2PO)2C6H4-n via nickellation du lien C-H a été investigué avec une méthode de réaction de compétition. Cette étape a été déterminée comme étant de nature électrophile. Les complexes résultants ont été complètement caractérisés. Une corrélation a notamment été effectuée entre le déplacement chimique du Cipso en spectroscopie RMN 13C et le potentiel d'oxydation Eox en voltamétrie cyclique. Une nouvelle méthode de synthèse directe verte "one pot" a été mise en place. En faisant réagir à 75 °C un mélange hétérogène de II résorcinol, de chlorodiisopropylphosphine et de nickel métallique en poudre, on obtient le complexes pince (POCOP)Ni(Cl) avec des rendements allant jusqu'à 93%. La réactivité de ces complexes POCOP a été investiguée pour des réactions de fluorination et trifluorométhylation des halogénures d'alkyle. La synthèse du (POCOP)Ni(F) a lieu à partir de précurseur (POCOP)Ni(X) (X=Br, Cl), en présence d'un large excès de fluorure d'argent AgF. Ce complexe catalyse la fluorination du bromure de benzyle et peut être converti en (POCOP)Ni(CF3) en présence de réactif du Ruppert, Me3SiCF3. La réaction entre (POCOP)Ni(CF3) et le bromure de benzyle dans les solvants aromatiques mène à la conversion totale du complexe en (POCOP)Ni(Br) et à l'inattendue benzylation du solvant aromatique utilisé. La seconde partie concerne la synthèse des nouveaux complexes non symétriques à base de ligands comportant un motif imidazolo-phosphine (PIMCOP) 3-[2-(R2P)-C3H2N2]-(R2PO)-C6H3, imidazoliophosphine (PIMIOCOP) 3-[2-(R2P)-3- (CH3)-C3H2N2]-(R2PO)-C6H3] et carbène N-hétérocyclique (NHCCOP). La double déprotonation du 3-hydroxyphenyl-imidazole suivi de l'addition de deux équivalents de chlorodiphenylphosphine mène à l'obtention du ligand PIMCOP 3-[3-(CH3)- C3H2N2]-(R2PO)-C6H3. L'étape de nickellation a lieu comme dans le cas des composés (POCOP)Ni. La méthylation du motif imidazole du (PIMCOP)Ni(Br) par le triflate de méthyle MeOTf, donne le dérivé (PIMIOCOP)Ni(Br). Ce dernier est converti en (NHCCOP)Ni(Br) après l'addition de chlorure de tétraéthylamonium NEt4Cl. Les analogues i-Pr2P de ces complexes sont synthétisés en remplaçant ClPPh2 par ClPiPr2. On obtient les espèces cationiques [(PIMCOP)Ni(NCCH3)][OTf], [(PIMIOCOP)Ni(NCCH3)][OTf]2 et III [(NHCCOP)Ni(NCCH3)][OTf] suite à l'addition en solution dans l'acétonitrile de triflate d'argent AgOTf. Ces espèces ont été utilisés comme catalyseurs pour la synthèse d'amidine à partir de benzonitrile et de diverse amines aliphatiques. Enfin des complexes orthonickellés trans-Ni[(ĸ2-P,C-P(OC6H4)-(iPr2)( iPr2P(OC6H5))]Br à base de phosphinite ont été synthétisés et caractérisés. Les ligands sont synthétisés par réaction d'un phénol et de chlorodiisopropylphosphine en présence de base. L'ajout de {NiBr2(NCiPr)}n et de triéthylamine permet l'orthométallation via une étape de nickellation C-H. Un intermédiaire trans- [NiBr2{PiPr2(OC6H5)}2] de cette réaction a été isolé. Le complexe dimère peut réagir avec des espèces électrophiles mener à l'ortho-fonctionnalisation de la phosphinite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats ont été analysés à l'aide du logiciel SPSS

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche s’intéresse aux enjeux de l’habitat de demain de la génération des baby-boomers, tout particulièrement ceux nés entre 1945 et 1953, qui arrivent aujourd’hui à la retraite. C’est au carrefour de la vision de ce que signifie habiter selon des auteurs comme Benoit Goetz ( 2011), des philosophes comme Heidegger (1958), Bachelard (1957), Benjamin (1955), Büber (1962) ou encore Deleuze (1980) d’une part, soulignant les facteurs de porosité et les liens aux autres, et d’autre part les caractéristiques des baby-boomers telles que présentées par Jean François Sirinelli (2003) et Josée Garceau (2012), que se situe la recherche. Cette génération informée entend rester active et pratique des « adeptions » qui influencent par les gestes un savoir habiter et par là son habitat. L’étude de terrain a sondé les aspirations des baby-boomers en ce qui concerne leur choix résidentiel pour l’avenir, pour comprendre sur quelles valeurs et vers quels buts leur projet se construit. Le choix de méthodologies qualitatives s’appuie sur le visionnement préalable d’un film récent : Et si on vivait tous ensemble. Des entretiens semi-dirigés, auprès de cinq baby-boomers, de 60 à 65 ans, effectués en deux phases avec verbatim approuvés,étaient basés sur trois thèmes : la mémoire, l’adeption et le projet. Entre autres résultats, sont confirmés avec variantes, plusieurs concepts théoriques, comme ceux de porosité et d’ouverture par la fenêtre à la fois physique et virtuelle, mais soulignent le spectre de la maison de retraite et des préoccupations financières concernant l’avenir d’un habitat nécessairement autonome. Cette génération imprégnée par le monde technologique veut avoir accès à tout ce que propose la modernité sans pour autant perdre le sens de l’historicité de leur vie. Nés dans un monde en bouillonnement, les baby-boomers ont réinventé chaque étape de leur existence, ce qui laisse préfigurer que cette génération s’apprête à réinventer la retraite et ses sites domiciliaires. Aussi l’approche design devra-t-elle complètement se renouveler pour ces nouveaux usagers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse prend pour objet le nouage entre l’autoréflexivité et la mise en forme esthétique dans la poésie de Christophe Tarkos, produite dans les années 1990. Elle met en lumière les rapports entre l’élaboration d’une théorie du langage au sein de cette œuvre poétique et ses visées esthétiques totalisantes. Il s’agit d’identifier les principes générateurs de la théorie et de fournir une analyse de ses fondements qui s’ancrent dans la crise de la représentation moderne commençant dans la deuxième moitié du dix-neuvième siècle. Les motifs de la crise revisités par Tarkos inscrivent sa poésie dans une historicité, et notre thèse tente d’interpréter cette actualisation dans une œuvre qui donne forme au monde et à la mémoire individuelle. L’hypothèse qui chapeaute notre étude est que la théorie du langage favorise l’intelligibilité de l’œuvre totalisante en lui offrant un support réflexif. Notre thèse, qui privilégie une méthode fondée sur l’analyse des textes, se divise en trois parties. La première propose une recension de la réception critique de l’œuvre, dont nous retraçons les grandes lignes d’interprétation, de Christian Prigent à Jean-Michel Espitallier. Tout en plaçant Tarkos dans le champ poétique français, cette étape nous permet de positionner notre recherche par rapport à certains lieux communs de la critique. La deuxième partie vise à étudier la théorie du langage de Tarkos à partir de ses manifestes principaux (Le Signe =, Manifeste chou, Ma langue est poétique et La poésie est une intelligence) qui révèlent plusieurs principes, pouvoirs et limites de la langue et de la poésie. Afin de montrer la spécificité du concept de la « pâte-mot » de Tarkos, nous l’étudions dans un dialogue avec la figure de la « pâte » langagière chez la poète française Danielle Collobert. La troisième partie propose une étude de la volonté et de l’esthétique totalisantes dans l’œuvre de Tarkos, qui cherche à donner forme au réel. En effet, la poésie répond à l’excès du réel par diverses stratégies. Tout en voulant représenter son caractère débordant par une énonciation logorrhéique ou en usant de procédés comme celui de la répétition, elle cherche à le maîtriser dans des formes textuelles stables comme des fragments de prose « carrés » (Carrés, Caisses), dans des listes énumératives (Anachronisme) ou dans des réseaux d’images. La volonté totalisante chez Tarkos semble également prendre origine dans un sentiment d’urgence qui concerne, en dernière instance, une bataille contre la finitude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les souvenirs sont encodés dans le cerveau grâce aux configurations uniques de vastes réseaux neuronaux. Chaque connexion dans ces circuits est apte à être modifiée. Ces changements durables s’opèrent au niveau des synapses grâce à une synthèse de protéines de novo et génèrent ce qu’on nomme des traces mnésiques. Plusieurs preuves indiquent que, dans certaines formes de plasticité synaptique à long terme, cette synthèse a lieu dans les dendrites près des synapses activées plutôt que dans le corps cellulaire. Cependant, les mécanismes qui régulent cette traduction de protéines demeurent encore nébuleux. La phase d’initiation de la traduction est une étape limitante et hautement régulée qui, selon plusieurs chercheurs, constitue la cible principale des mécanismes de régulation de la traduction dans la plasticité synaptique à long terme. Le présent projet de recherche infirme cette hypothèse dans une certaine forme de plasticité synaptique, la dépression à long terme dépendante des récepteurs métabotropiques du glutamate (mGluR-LTD). À l’aide d’enregistrements électrophysiologiques de neurones hippocampiques en culture couplés à des inhibiteurs pharmacologiques, nous montrons que la régulation de la traduction implique les étapes de l’élongation et de la terminaison et non celle de l’initiation. De plus, nous démontrons grâce à des stratégies de knockdown d’expression d’ARN que la protéine de liaison d’ARNm Staufen 2 joue un rôle déterminant dans la mGluR-LTD induite en cultures. Dans leur ensemble, les résultats de la présente étude viennent appuyer un modèle de régulation de la traduction locale de protéines qui est indépendante de l’initiation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est connu que les personnes ayant une hémiparésie à la suite d’un accident vasculaire cérébral (AVC) présentent une mise en charge (MEC) asymétrique lors de la station debout et lors du passage assis à debout (PAD). Par contre, peu d’études ont quantifié l’évolution de la MEC avec la réadaptation ou la précision avec laquelle ces personnes sont capables de la juger. L’objectif principal de ce projet était d’étudier l’évolution de la répartition et la perception de MEC en position debout et lors du PAD chez des personnes hémiparétiques en réadaptation fonctionnelle intensive (RFI). Un objectif secondaire était d’identifier les facteurs qui caractérisent les personnes hémiparétiques les plus asymétriques et les plus atteintes dans leur perception. Cette étude a été menée auprès de seize participants. Les résultats ont démontré qu’une asymétrie de répartition de l’appui en faveur du côté non parétique est présente dès les premiers mois après l’AVC et qu’elle persiste malgré la RFI. Chez les personnes avec une atteinte sévère de la fonction motrice, la MEC était plus symétrique pour le PAD que la station debout. En termes de perception, les personnes hémiparétiques étaient capables d’identifier le côté sur lequel ils mettaient plus d’appui mais ils avaient tendance à surestimer l’appui sur le côté parétique et donc à se juger moins asymétriques qu’ils ne l’étaient en réalité. Très peu de changements ont été observés lorsque les données au congé étaient comparées aux données à l’entrée dans l’étude. En réponse à l’objectif secondaire, la fonction motrice du membre inférieur parétique évaluée par le Chedoke et la différence de force des extenseurs entre les genoux étaient les facteurs les plus déterminants de l’asymétrie et de la perception de MEC. Les résultats obtenus constituent donc une étape supplémentaire vers la compréhension de la répartition asymétrique et les troubles de perception de MEC lors de la station debout et le PAD chez les personnes hémiparétiques. Il serait intéressant dans le futur d’explorer davantage les facteurs susceptibles d’influencer l’asymétrie et la perception de MEC et d’objectiver la relation de cause à effet entre ces deux variables en plus de préciser l’effet réel de l’asymétrie sur la stabilité posturale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.