153 resultados para diffusion des innovations


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’utilisation de stratégies antisyndicales est un phénomène de plus en plus préconisé par l’acteur patronal (Bronfenbrenner, 2009b). Une piste d’explication de cette croissance serait liée à l’idéologie de gestion se basant sur une amertume inhérente à l’idée de partager le pouvoir avec une tierce partie représentant des travailleurs (Dundon et al., 2006). Dans le but de faire régner cette idéologie et de conserver un environnement de travail sans présence syndicale, des multinationales se sont même positionnées ouvertement contre la syndicalisation, que l’on pense à Wal-Mart, Mc Donald’s ou Disney (Dundon et al., 2006). Avec cette puissance que les multinationales détiennent actuellement, il ne fait nul doute qu’elles exercent une influence auprès des dirigeants des plus petites entreprises (Dundon et al., 2006), ce qui pourrait expliquer ce recours accru aux stratégies antisyndicales, que ce soit avant ou après l’accréditation syndicale. Mais qu’en est-il de l’antisyndicalisme de l’acteur patronal en sol canadien? Pour certains, les employeurs canadiens pratiqueraient davantage une stratégie d’acceptation du syndicalisme comparativement à nos voisins du sud à cause notamment de la plus forte présence syndicale historique dans le système des relations industrielles canadien, des tactiques syndicales canadiennes différentes (Thomason & Pozzebon, 1998) et des lois encadrant davantage les droits d’association et de négociation collective (Boivin, 2010; Thomason & Pozzebon, 1998). Des travaux montrent cependant une réelle volonté de la part des employeurs canadiens à avoir recours à des stratégies d’opposition à la syndicalisation (Bentham, 2002; Martinello & Yates, 2002; Riddell, 2001). Selon les auteurs Martinello et Yates (2002), six pour cent (6 %) des employeurs ontariens couverts dans le cadre de leur étude n’auraient adopté aucune tactique pour éviter ou éliminer le syndicat : quatre-vingt-quatorze pour cent (94 %) des employeurs couverts ont ainsi utilisé différentes tactiques pour s’opposer au syndicalisme. C’est donc dire que l’opposition patronale face au mouvement syndical révélée par l’utilisation de diverses stratégies antisyndicales est aussi présente chez les employeurs canadiens. Peu d’études canadiennes et québécoises ont pourtant enrichi la littérature au sujet de ce phénomène. De manière générale, les travaux effectués sur la question, anglo-saxons et surtout américains, font principalement état du type de stratégies ainsi que de leur fréquence d’utilisation et proposent souvent une méthodologie basée sur une recension des décisions des tribunaux compétents en la matière ou l’enquête par questionnaire. Face à ces constats, nous avons visé à contribuer à la littérature portant sur les stratégies antisyndicales et nous avons construit un modèle d’analyse nous permettant de mieux cerner leurs effets sur les travailleurs et les syndicats. Notre recherche se démarque également de la littérature de par les démarches méthodologiques qu’elle propose. Nous avons en effet réalisé une recherche de nature qualitative, plus spécifiquement une étude de cas d’une entreprise multiétablissement du secteur du commerce au détail. Notre modèle d’analyse nous permet de dégager des constats quant aux effets de l’utilisation des stratégies patronales antisyndicales auprès des travailleurs visés et du syndicat visé, que ce soit sur les intérêts individuels, les intérêts collectifs ainsi que sur les intérêts du syndicat tels que proposés par Slinn (2008b). Également, nous cherchions à comprendre dans quelle mesure les stratégies antisyndicales contribuent à diminuer (effet paralysant) ou à augmenter (effet rebond) la propension à la syndicalisation des travailleurs visés par les stratégies, tout en tenant compte de la propension des travailleurs d’autres succursales qui n’étaient pas visés directement par cette utilisation (effet d’entraînement). Pour atteindre nos objectifs de recherche, nous avons procédé en trois phases. La phase 1 a permis de faire la recension de la littérature et de formuler des propositions théoriques à vérifier sur le terrain. La phase 2 a permis de procéder à la collecte de données grâce aux entrevues semi-dirigées réalisées à deux niveaux d’analyse : auprès de représentants syndicaux et de travailleurs. Au cours de la phase 3, nous avons procédé à la retranscription des entrevues effectuées et nous avons analysé les principaux résultats obtenus. La méthode de l’appariement logique (Yin, 2009) a été utilisée pour comparer les phénomènes observés (données issues du terrain) aux phénomènes prédits (constats de la littérature et propositions théoriques). À la suite de la réalisation de la phase 3, nous constatons que la campagne de peur a été celle qui a été la plus utilisée en réaction à la menace de présence syndicale avec les tactiques dites coercitives qui la composent : la fermeture de deux succursales, un discours devant un auditoire captif, la diffusion d’une vidéo interne, etc. De ce fait, un sentiment de peur généralisé (86 % des répondants) s’attaquant aux intérêts collectifs a été perçu à la suite de l’utilisation des tactiques antisyndicales. Par conséquent, nous avons pu observer l’effet de ces tactiques sur les travailleurs visés et sur le syndicat : elles auraient en effet gelé la propension de travailleurs d’autres succursales à se syndiquer (64 % des répondants) et donc freiné la campagne syndicale en cours. Nous constatons également que bon nombre de tactiques ont été déployées à la suite de l’accréditation syndicale en s’attaquant aux intérêts individuels. Mentionnons, pour n’en citer que quelques-uns, que les travailleurs feraient face à une plus forte discipline (72 % des répondants), qu’ils seraient victimes d’intimidation ou de menaces (80 % des répondants) et que ces tactiques provoquèrent des démissions à cause de l’ambiance de travail alourdie (50 % des répondants).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les patients atteints de cancers reçoivent différents traitement, tels que la radiothérapie ou la chimiothérapie. Actuellement, environ 60% des enfants survivants du cancer développent des effets secondaires cognitifs, consécutifs aux traitements énoncés précédemment. Compte tenu de la perspective du développement psychomoteur de l’enfant et de l’immaturité du système nerveux central (SNC) chez ces patients, il s’avère particulièrement pertinent d’étudier les effets secondaires que provoquent les traitements anticancéreux sur le développement cognitif de cette population de malades. Des études ont démontrées l’existence de liens étroits entre ces effets secondaires et l’abolition de la neurogénèse provoquée principalement par l’irradiation. Ce projet de maîtrise porte sur les effets du facteur de croissance épidermique, l’EGF (un facteur de croissance impliqué dans la prolifération cellulaire) sur la neurogénèse de la souris. Nous avons également cherché un vecteur de sécrétion efficace pour permettre une diffusion continue d’EGF à long terme (2 à 4 semaines). Notre hypothèse est que l’EGF serait capable de stimuler la neurogénèse et protéger les cellules de l’apoptose dans le cerveau de la souris, suite à une irradiation. Nous avons montré un effet positif de l’EGF sur la formation et la prolifération des neuroblastes Dcx(+) dans la zone sous ventriculaire (ZSV) et non dans l’hippocampe (Hi), suite à l’injection de l’EGF, directement dans le cerveau à l’aide d’une pompe osmotique. Nous avons observé que cette augmentation de la quantité de jeunes neurones est indépendante de la capacité de l’EGF à les protéger de l’apoptose. L’EGF ne protège pas non plus les blastes leucémiques, issus de lignées de cellules humaines, des effets secondaires d’une irradiation. Les cellules souches mésenchymateuses (CSM) modifiées génétiquement et générées pour sécréter l’EGF ne montrent aucun effet sur la stimulation de la neurogénèse quand elles sont directement injectées dans le cerveau. Finalement, nos résultats indiquent que l’EGF pourrait être un bon candidat pour le développement de nouvelles thérapies pour traiter les effets secondaires que provoque une irradiation du cerveau. L’utilisation de pompes pour permettre l’administration d’EGF dans le cerveau devient alors très intéressante pour améliorer la qualité de vie des patients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’utilisation de nanoparticules (NPs) dans divers domaines industriels est de plus en plus fréquente ce qui génère leur propagation dans l’environnement. Selon leur persistance, mobilité, bioaccumulation et toxicité, des risques inconnus pour la santé et pour des écosystèmes peuvent en résulter. En effet, la caractérisation et la quantification sont des défis analytiques très complexes en raison de la nature dynamique (petite taille, grande réactivité et instabilité) des nanomatériaux. L'objectif de cette étude est donc de caractériser par ultracentrifugation analytique (AUC) des nanoparticules polymériques (Allosperse® dites allosphères) qui sont destinées à des fins agricoles. Pour y parvenir, différentes NPs métalliques (argent, quantum dot), oxydes métalliques (dioxyde de titane, oxyde de zinc) et NPs de polystyrène ont d’abord été mesurés par AUC à l’aide des différents systèmes de détection (absorbance, fluorescence et interférence). Dans le cas des allosphères, un grand nombre d'essais préliminaires ont été réalisés afin d'optimiser la vitesse d'ultracentrifugation, le temps d'ultracentrifugation, le nombre de numérisations et la concentration de l'échantillon. Un protocole optimisé a été utilisé pour la détermination du diamètre hydrodynamique (dh) des NPs. Les différentes analyses qui ont été réalisées dans cette étude révèlent que l’AUC permet de déterminer la taille de très petites NPs. Par ailleurs, une étude du comportement de ces allosphères pour des pH entre 4-8, des forces ioniques de 0 à 500 mM, en présence ou absence de matière organique naturelle a été entreprise. Les travaux ont montré que le dH était d’environ 7,0 nm avec de petites augmentations à faible pH, ou à très grande force ionique ou dureté. Ces résultats indiquent la grande stabilité physique et chimique des allosphères qui auront, ainsi, une grande mobilité dans les sols. La diffusion de lumière dynamique et la spectroscopie de corrélation de fluorescence ont été utilisées afin de valider les résultats obtenus par l’AUC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur le développement de biocapteurs basés sur la technique de résonance des plasmons de surface (SPR) pour effectuer des analyses directement dans un fluide sanguin n’ayant subi aucune purification ou dilution. L’ensemble des biocapteurs discutés exploiteront un instrument SPR portable développé dans le groupe du professeur Masson. Le premier volet de la thèse portera sur le processus d’interférence lié à l’adsorption non spécifique du sérum à la surface du capteur. L’analyse des biomolécules adsorbées sera effectuée en combinant la SPR à la spectrométrie de masse. Les informations obtenues seront exploitées pour la construction de biocapteurs adaptés à l’analyse en milieu sanguin. Un premier biocapteur développé ciblera la protéine antigène prostatique spécifique (APS) contenue dans le sérum servant de biomarqueur pour dépister le cancer de la prostate. Pour détecter les faibles concentrations de cette protéine directement dans le sérum, un matériel plasmonique microstructuré sera utilisé pour amplifier les signaux obtenus et sera recouvert d’une monocouche peptidique minimisant l’adsorption non spécifique du sérum. L’instrument SPR aura été adapté pour permettre également la détection simultanée de fluorescence. Un test ELISA sera ainsi effectué en parallèle du test SPR. Chacune des techniques fournira un contrôle pour la deuxième, tout en permettant de détecter le biomarqueur au niveau requis pour dépister la maladie. La combinaison des deux méthodes permettra aussi d’élargir la gamme dynamique du test de dépistage. Pour terminer, l’instrument SPR portable sera utilisé dans le cadre de détection de petites biomolécules ayant un potentiel thérapeutique directement dans un échantillon de sang. Des peptides ayant une activité anti-athérosclérotique pourront ainsi être détectés à même un échantillon de sang ni purifié ni dilué, et ce à des concentrations de l’ordre du micromolaire. Une modification de la microfluidique via l’introduction d’une membrane poreuse au cœur de celle-ci sera la clé permettant d’effectuer de telles analyses. La présente thèse met de l’avant de nouvelles stratégies et des modifications instrumentales permettant d’analyser des protéines et des petites molécules directement dans un échantillon non purifié de sérum ou de sang. Les modifications apportées au système fluidique, à l’instrument SPR et au niveau du biocapteur employé permettront d’effectuer des biodétections dans des matrices aussi complexes que les fluides sanguins. Les présents travaux mettent en lumière la capacité d’un instrument SPR/fluorescence portable à faire en 12 minutes la biodétection d’un marqueur du cancer de la prostate directement dans un échantillon de sérum. Finalement, on rapporte ici un des premiers articles où un biocapteur SPR est utilisé à même un échantillon de sang non-purifié pour faire des biodétections.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La recherche portera sur la montée des vidéos de gay bashing depuis 2013. Par vidéo de gay bashing, nous entendons des vidéos documentant l’abus physique ou verbal d’individus perçus par les agresseurs comme étant gais, lesbiennes, bisexuels, transgenres ou queer, mais nous nous concentrerons spécifiquement sur des vidéos montrant des agressions envers des hommes. Ces vidéos peuvent être enregistrées par les agresseurs eux-mêmes ou par des témoins de la scène. Il s’agira de situer cette montée dans un contexte politique de retour de lois et sentiments anti-LGBT dans les pays d’où proviennent certaines des vidéos étudiées et par rapport aux différentes théories anthropologiques et socio-historiques concernant les sources et motivations derrière les actes de violence homophobe. Le corpus se composera de trois vidéos venant de Russie («Putin’s Crackdown on LGBT Teens un Russia»), de Lybie («Gay torture and violent in Lybia») et des États-Unis («Attack at gay pride event in Detroit»). L’analyse du corpus se fera en trois temps : d’abord l’analyse de la forme et du contenu des vidéos en tant que tels, ensuite, l’analyse de leur circulation et des différents utilisateurs qui distribuent les vidéos en ligne, et, finalement, l’analyse de la réception des vidéos en portant attention aux commentaires des utilisateurs. Il s’agira de montrer comment les vidéos de gay-bashing effectuent une rupture par rapport à une vision de YouTube, et autres médias sociaux, comme libérateurs et comme lieux d’expression de soi (particulièrement pour les membres des communautés LGBT) et les transforment en lieux d’une humiliation triplée par l’enregistrement de l’humiliation physique et sa diffusion sur le web. Il s’agira ensuite de voir comment la circulation et la redistribution de ces vidéos par différents groupes et utilisateurs les instrumentalisent selon différents agendas politiques et idéologiques, pour finalement se questionner, en s’inspirant du triangle de l’humiliation de Donald Klein, sur le rôle ambivalent du témoin (physique ou virtuel) dont la présence est nécessaire pour qu’il y ait humiliation. Finalement, nous nous intéresserons aux vidéos de témoignages de gay-bashing, vidéos faites par les victimes elles-mêmes, racontant leur traumatisme à la caméra, renouant ainsi avec les vidéos de coming out sous la forme de l’aveu et de la spectacularisation du soi. La présente recherche sera également l’occasion de développer des outils théoriques et méthodologiques propres aux nouveaux médias et aux nouvelles formes et contenus qui s’y développent.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De nos jours, les séries télévisées américaines représentent une part incontournable de la culture populaire, à tel point que plusieurs traductions audiovisuelles coexistent au sein de la francophonie. Outre le doublage qui permet leur diffusion à la télévision, elles peuvent être sous titrées jusqu’à trois fois soit, en ordre chronologique : par des fans sur Internet; au Québec, pour la vente sur DVD en Amérique du Nord; et en France, pour la vente sur DVD en Europe. Pourtant, bien que ces trois sous titrages répondent aux mêmes contraintes linguistiques (celles de la langue française) et techniques (diffusion au petit écran), ils diffèrent dans leur traitement des dialogues originaux. Nous établissons dans un premier temps les pratiques à l’œuvre auprès des professionnels et des amateurs. Par la suite, l’analyse des traductions ainsi que le recours à un corpus comparable de séries télévisées françaises et québécoises permettent d’établir les normes linguistiques (notamment eu égard à la variété) et culturelles appliquées par les différents traducteurs et, subsidiairement, de définir ce que cache l’appellation « Canadian French ». Cette thèse s’inscrit dans le cadre des études descriptives et sociologiques. Nous y décrivons la réalité professionnelle des traducteurs de l’audiovisuel et l’influence que les fansubbers exercent non seulement sur la pratique professionnelle, mais aussi sur de nouvelles méthodes de formation de la prochaine génération de traducteurs. Par ailleurs, en étudiant plusieurs traductions d’une même œuvre, nous démontrons que les variétés de français ne sauraient justifier, à elles seules, la multiplication de l’offre en sous titrage, vu le faible taux de différences purement linguistiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les septines sont des GTPases conservées dérégulées dans le cancer et les maladies neurodégénératives. Elles servent de protéines d’échafaudage et forment une barrière de diffusion à la membrane plasmique et au corps central lors de la cytokinèse. Elles interagissent avec l’actine et s’organisent en complexes qui polymérisent et forment des structures hautement organisées (anneaux et filaments). Leur dynamique d’assemblage et leur rôle dans la cellule restent à être élucidés. La Drosophile est un modèle simple pour l’étude des septines puisqu’on n’y retrouve que 5 gènes (sep1, sep2, sep4, sep5, peanut) comparativement aux 13 gènes chez l’humain. À l’aide d’un anticorps contre Pnut, nous avons identifié des structures tubulaires dans 30% des cellules S2 de Drosophile. Mon projet a comme but de caractériser ces tubes en élucidant leurs constituants, leur comportement et leurs propriétés pour mieux clarifier le mécanisme par lequel les septines forment des structures hautement organisées et interagissent avec le cytosquelette d’actine. Par immunofluorescence, j’ai pu démontrer que ces tubes sont cytoplasmiques, en mitose ou interphase, ce qui suggère qu’ils ne sont pas régulés par le cycle cellulaire. Pour investiguer la composition et les propriétés dynamiques de ces tubes, j’ai généré une lignée cellulaire exprimant Sep2-GFP qui se localise aux tubes et des ARNi contre les cinq septines. Trois septines sont importantes pour la formation de ces tubes et anneaux notamment Sep1, Sep2 et Pnut. La déplétion de Sep1 cause la dispersion du signal GFP en flocons, tandis que la déplétion de Sep2 ou de Pnut mène à la dispersion du signal GFP uniformément dans la cellule. Des expériences de FRAP sur la lignée Sep2-GFP révèlent un signal de retour très lent, ce qui indique que ces structures sont très stables. J’ai aussi démontré une relation entre l’actine et les septines. Le traitement avec la Latrunculin A (un inhibiteur de la polymérisation de l’actine) ou la Jasplakinolide (un stabilisateur des filaments d’actine) mène à la dépolymérisation rapide (< 30 min) des tubes en anneaux flottants dans le cytoplasme, même si ces tubes ne sont pas reconnus suite à un marquage de la F-actine. L’Actin05C-mCherry se localise aux tubes, tandis que le mutant déficient de la polymérisation, Actin05C-R62D-mCherry perd cette localisation. On observe aussi que la déplétion de la Cofiline et de l’AIP1 (ce qui déstabilise l’actine) mène au même phénotype que le traitement avec la Latrunculine A ou la Jasplakinolide. Alors on peut conclure qu’un cytosquelette d’actine dynamique est nécessaire pour la formation et le maintien des tubes de septines. Les futures études auront comme but de mieux comprendre l’organisation des septines en structures hautement organisées et leur relation avec l’actine. Ceci sera utile pour l’élaboration du réseau d’interactions des septines qui pourra servir à expliquer leur dérégulation dans le cancer et les maladies neurodégénératives.