461 resultados para équipements adaptés
Resumo:
L’évaluation de l’exposition aux composés organiques volatils (COV) recourt couramment à l’analyse des métabolites urinaires en assumant qu’aucune interaction ne survient entre les composés. Or, des études antérieures ont démontré qu’une inhibition de type compétitive survient entre le toluène (TOL), l’éthylbenzène (EBZ) et le m-xylène (XYL). Le chloroforme, qui est également un solvant métabolisé par le CYP2E1, se retrouve souvent en présence des autres COV dans les échantillons de biosurveillance. La présente étude visait donc à évaluer si le chloroforme (CHL) peut lui aussi interagir avec ces COV et évaluer ces interactions au niveau de l’excrétion des biomarqueurs urinaires associés, soit l’o-crésol, l’acide mandélique et l’acide m-méthylhippurique pour TOL, EBZ et XYL respectivement. Afin d’obtenir des données humaines, cinq volontaires ont été exposés par inhalation à différentes combinaisons de COV (seuls et mélanges binaires ou quaternaires) où la concentration de chacun des composés était égale à 1/4 ou 1/8 de la valeur limite d’exposition (VLE) pour une durée de 6h. Des échantillons d’air exhalé, de sang et d’urine ont été récoltés. Ces données ont ensuite été comparées aux modèles pharmacocinétiques à base physiologique (PCBP) existants afin de les ajuster pour l’excrétion urinaire. Certaines différences ont été observées entre les expositions aux solvants seuls et les coexpositions, mais celles-ci semblent majoritairement attribuables aux remplacements de participants à travers les différentes expositions. Les valeurs de Vmax pour EBZ et CHL ont été optimisées afin de mieux prédire les niveaux sanguins de ces COV. À l’exception du modèle pour EBZ, tous les paramètres pour l’excrétion urinaire ont été obtenus à partir de la littérature. Les modèles adaptés dans cette étude ont permis de simuler adéquatement les données expérimentales.
Resumo:
À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.
Resumo:
La présente recherche s’intéresse aux adolescents qui sont des aidants naturels auprès d’un parent aux prises avec une maladie chronique dans un contexte où, d’une part, de plus en plus de soins doivent désormais être assumés par les personnes atteintes elles-mêmes et par leurs familles (Guberman et coll., 2005) et, d’autre part, les services destinés aux aidants naturels ont encore de la difficulté à concevoir les enfants et les adolescents comme étant des aidants (Charles, Stainton et Marshall, 2012). Les jeunes aidants adoptent des tâches et des rôles qui ne sont pas toujours adaptés à leur âge (Earley et Cushway, 2002), ce qui peut compromettre leur développement psycho-social (Sieh et coll., 2010 ; Davey et coll., 2005 ; Pedersen et Revenson, 2005). En parlant des jeunes aidants, il est important de considérer le caregiving sur un continuum selon lequel tous les jeunes sont impliqués, d’une façon ou d’une autre, dans les aspects de la prise en charge d’un parent malade, mais qu’une proportion plus petite adopte un rôle de jeune aidant, ce qui signifie que leur implication est exagérée, que le temps consacré à l’aide ainsi que la nature de celle-ci ne correspondent pas à leur âge ni à leur stade de développement, et qu’il y a des restrictions importantes ayant des impacts négatifs sur leur vie (Becker, 2007). Notre recherche part ainsi de l’interrogation sur la façon dont cette réalité est vécue par les adolescents et dont elle est perçue et interprétée par les intervenants de différents milieux de pratique dans le contexte québécois. Cette recherche s’appuie sur le cadre théorique de la reconnaissance tel que proposé par Honneth. En effet, en nous appuyant sur la littérature disponible, on peut présumer que l’attention portée aux jeunes aidants est un enjeu central de leur réalité. En conséquence, il est de notre avis qu’il faut mieux comprendre les enjeux de cette reconnaissance dont la plupart des recherches parlent, mais qui restent peu étudiés en lien avec les jeunes aidants. Ce cadre conceptuel servira de porte d’entrée pour analyser quatre entrevues semi-dirigées avec des adolescents âgés de 15 à 19 ans, ainsi que sept entrevues semi-dirigées avec des intervenants de divers milieux de pratique. Les résultats de cette recherche suggèrent la présence de trois dynamiques de reconnaissance décrivant des enjeux différents entourant la réalité des jeunes aidants. Celles-ci mettent en évidence que les conséquences auxquelles les jeunes aidants peuvent être confrontés proviennent moins de leur rôle d’aidant que de la dimension relationnelle en ce qui concerne leur réalité. En outre, au croisement des regards entre les adolescents et les intervenants, un point de divergence se dégage et semble faire obstacle à notre manière de considérer l’aide qui devrait être apportée en ce qui concerne ce phénomène. Il apparaît que, pour les intervenants, l’amélioration de la situation des jeunes aidants passe, entre autres, par le soutien qui devrait être apporté aux parents, tandis que les adolescents mettent un accent particulier sur la manière dont leur contribution est non seulement valorisée dans la sphère familiale, mais également soutenue par les intervenants entourant leur famille.
Resumo:
L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.
Resumo:
La forme humaine de la racine de la mandragore est sans doute à l’origine de la fascination que cette plante exerce depuis des millénaires. On lui attribue des qualités surnaturelles : entre autres, elle rendrait son propriétaire infiniment riche. Les détails lugubres se rapportant au mythe de la mandragore font d’elle un thème de prédilection pour la littérature fantastique. Le but de ce travail est d’analyser la légende de la mandragore dans trois œuvres de la littérature fantastique allemande (Isabelle d’Égypte (1812) d’Achim von Arnim, Petit Zacharie surnommé Cinabre (1819) d’E.T.A. Hoffmann et Mandragore (1911) de Hanns Heinz Ewers), dans lesquelles ce motif est combiné avec un thème aussi très prisé du genre fantastique : l’homme artificiel. Dans une perspective intertextuelle, j’analyserai comment chaque auteur s’approprie le mythe de la mandragore et représente le personnage-mandragore. Je me concentrerai ensuite sur les nouvelles qualités créées par son statut de créature artificielle et sur la relation de cette dernière avec son créateur. Puis, j’examinerai le rôle du personnage-mandragore dans chacune des œuvres dans son contexte historique. Ainsi, je montrerai que les personnages-mandragores possèdent bel et bien des caractéristiques qui se réfèrent à la légende de la mandragore, mais que leur nature de créature artificielle leur fait endosser dans leur récit un rôle d’antagoniste qui s’apparente à celui du trickster. Finalement, j’expliquerai comment les auteurs utilisent le motif de la mandragore et la littérature fantastique pour dénoncer la corruption, critiquer les partisans des Lumières et créer une atmosphère de décadence qui justifie l’utilisation du thème de la femme fatale.
Resumo:
Peut-on donner d’une clause et reprendre de l’autre? Si deux siècles de décisions et de commentaires contradictoires empêchent de répondre à cette question avec la certitude et l’assurance auxquelles nous a habitué la doctrine civiliste, il est tout de même possible d’affirmer que le droit civil prohibe la clause qui permet à un contractant de se dédire totalement de son engagement. Privant l’engagement de son cocontractant de toute raison, et le contrat dans lequel elle se trouve de toute fonction, cette clause contracticide se heurte en effet à une notion fondamentale du droit commun des contrats : la cause. C’est pour éviter que ne soient validés les contrats qui ne présentent aucun intérêt pour l’une ou l’autre des parties que le législateur québécois a choisi d’importer – et de conserver, dans son article introductif du Livre des obligations, cette notion que l’on dit la plus symbolique du droit français des obligations. En effet, bien que son rôle soit fréquemment assumé par d’autres mécanismes, la cause demeure la gardienne des fonctions du contrat synallagmatique. À ce titre, elle permet non seulement d’annuler les contrats qui ne codifient aucun échange, mais également, et surtout, de contrôler ceux dont le contenu ne permet pas de matérialiser les avantages négociés. Octroyant au juge le pouvoir d’assurer que le contrat contienne les outils nécessaires et adaptés à la réalisation de l’opération qu’il a pour fonction de mettre en œuvre, la cause lui offre donc le moyen de garantir l’adéquation entre la fin et ses moyens, bref de contrôler la cohérence matérielle du contrat.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Le réovirus de mammifères se multiplie et détruit préférentiellement les cellules cancéreuses. Il est d’ailleurs actuellement à l’étude pour traiter divers types de cancers chez l’humain. L’objectif de cette étude était de mieux comprendre les diverses composantes impliquées dans le cycle viral de réovirus qui pourraient potentiellement être importantes dans le contexte d’optimisation de son potentiel oncolytique, ceci en utilisant une combinaison d’approches classiques ainsi que de génétique inverse.L’approche par persistance virale est classiquement utilisée pour identifier de nouveaux mutants de réovirus. Celle-ci a surtout mené à la sélection de mutants de décapsidation chez les cellules L929. Ici, des virus adaptés furent récupérés de cellules Vero (VeroAV) et contrairement aux autres mutants de persistance, ce virus possède des substitutions d’acides aminés sur les protéines mu1 et sigma1. L’approche par génétique inverse a permis de démontrer que la fixation de VeroAV sur les acides sialiques des cellules Vero était favorisée. Les substitutions sur sigma1 seraient principalement responsables de ce phénotype quoique le contexte de la substitution de mu1 puisse affecter l’infectivité du virus. Dans un deuxième volet, il a été remarqué que le virus de type sauvage utilisé pour la génétique inverse (T3DK) était plus sensible à l’interféron comparativement au virus de type sauvage de notre laboratoire (T3DS). Après séquençage complet du virus T3DS nous avons reconstruit, par génétique inverse, le virus T3DS. Nous avons donc pu poursuivre nos études sur le virus P4L-12 précédemment isolé au laboratoire par mutagenèse chimique. Il a été préalablement démontré que P4L-12 possède une meilleure réplication chez les cellules transformées et un blocage plus complet chez les cellules parentales, phénotype relié à une sensibilité accrue à l’interféron. Dans cette étude, des substitutions d’acides aminés sur les protéines sigma3, mu1, muNS et lambda2 furent identifiés. Nous avons démontré, par génétique inverse, que la substitution sur la protéine lambda2 était principalement responsable du phénotype de sensibilité à l’interféron. Ces approches de persistance ou de sélection de mutants sensibles à l’interféron, suivies d’une caractérisation par génétique inverse seront certainement utiles à une meilleure compréhension de réovirus et pourraient contribuer à améliorer son potentiel oncolytique.
Resumo:
La mondialisation a favorisé l’essor de l’innovation collaborative entraînant une augmentation du nombre de partenariats entre différents acteurs. Grâce à leurs avantages multiples, les projets conjoints jouent un rôle fondamental dans le développement économique et industriel des secteurs à forte valeur ajoutée. Dans cette optique, la création ou la quantification de valeur par l’innovation collaborative repose en grande partie sur la capacité à commercialiser des innovations encadrées par une protection intellectuelle adéquate. Ainsi, la tendance mondiale témoigne d’une augmentation accrue des dépôts conjoints de brevets entre diverses entités. Ces co-dépôts soulèvent une variété de questions juridiques puisque les régimes statutaires ne sont pas nécessairement adaptés à la réalité des partenariats. D’abord, les régimes lacunaires proposés par les lois n’anticipent pas les conséquences juridiques de l’interaction entre divers acteurs. La variété de configurations d’intervenants et la typologie des partenariats entraînent une confusion entre les inventeurs et les propriétaires lors du dépôt d’une demande de brevet. Cette situation peut également induire de facto la copropriété d’un brevet pouvant causer des litiges et miner l’énorme valeur des brevets conjoints. Ensuite, les régimes statutaires sont également déficients à l’étape de l’exploitation d’un brevet conjoint. En comparant les régimes juridiques canadiens et américains, il devient possible de mieux cerner les enjeux juridiques associés aux questionnements présents lors de l’élaboration d’un partenariat. Afin d’obtenir des retombées fructueuses des brevets conjoints, une mise en forme contractuelle est proposée pour pallier ces lacunes statutaires. Grâce à des outils contractuels et à une planification pré-contractuelle, les copropriétaires pourront réaliser l’énorme potentiel de cette institution.
Resumo:
En cette ère de «nouvelle santé publique», les professionnels sont exhortés à détourner leur attention de l’individu afin de pouvoir mettre l’accent sur les déterminants sociaux de la santé. Un phénomène contraire s’opère dans le domaine des sciences biomédicales, où un mouvement vers la santé personnalisée permet d’envisager des soins préventifs et curatifs adaptés à chaque individu, en fonction de son profil de risque génétique. Bien qu’elles n’aient que partiellement fait leur entrée dans notre système de santé, ces avancées scientifiques risquent de changer significativement le visage de la prévention, et dans cette foulée, de susciter des débats de société importants. L'étude proposée vise à contribuer à une réflexion sur l'avenir d'une des fonctions essentielles de la santé publique en tentant de mieux comprendre comment le public perçoit la prévention basée sur le risque génétique. Ce projet de recherche qualitative consiste en l'analyse secondaire des échanges ayant eu lieu lors de quatre ateliers délibératifs auxquels ont participé des membres du public d'horizons divers, et durant lesquels ceux-ci ont débattu de la désirabilité d'une technologie préventive fictive, le «rectificateur cardiaque». La théorie de la structuration d'Anthony Giddens est utilisée comme cadre conceptuel guidant l’analyse des échanges. Celle-ci permet d’émettre les trois constats suivants: a- le « rectificateur cardiaque » est loin d’être interprété par tous les participants comme étant une intervention préventive; b- son utilisation est perçue comme étant légitime ou non dépendamment principalement des groupes de personnes qu’elle viserait; c- l’intervention proposée ne se pense pas hors contexte.
Resumo:
Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).
Resumo:
Cette recherche vise à explorer la satisfaction à l’égard des services reçus par les militaires diagnostiqués d’un trouble de stress post-traumatique (TSPT) et leur conjointe, ainsi qu’à comprendre leurs besoins et le sens donné au TSPT. Nous utilisons l’analyse qualitative exploratoire comme méthode d’analyse de données. Nous découvrons d’une part que les militaires et les conjointes rencontrées souhaitent recevoir des services adaptés à leur situation particulière (cas par cas) et d’autre part, que tous les répondants ont le besoin commun que l’on reconnaisse leurs sacrifices. Pour les militaires, une manière de reconnaitre ces sacrifices serait de respecter leurs souhaits et leurs demandes en ce qui concerne les soins. Une prise en charge complète de l’aspect administratif du rétablissement et de la libération serait également souhaitable lorsqu’indiquée. Nous trouvons également des différences entre les militaires ayant reçu un diagnostic de TSPT il y a plus de 5 ans et ceux qui l’ont reçu récemment. Nous proposons des hypothèses liées à ces différences. Finalement, les lacunes importantes en ce qui concerne les services offerts aux conjointes sont le manque de connaissance de ces dits services par les conjointes, la stigmatisation et la perception négative qu’ont les conjointes à l’égard du principal prestataire de service, les centres de ressources pour les familles des militaires. Cette étude nous permet de faire des recommandations en lien avec les résultats trouvés.
Resumo:
L’élevage des porcs représente une source importante de déversement d’antibiotiques dans l’environnement par l’intermédiaire de l’épandage du lisier qui contient une grande quantité de ces molécules sur les champs agricoles. Il a été prouvé que ces molécules biologiquement actives peuvent avoir un impact toxique sur l’écosystème. Par ailleurs, elles sont aussi suspectées d’engendrer des problèmes sanitaires et de contribuer à la résistance bactérienne pouvant mener à des infections difficilement traitables chez les humains. Le contrôle de ces substances dans l’environnement est donc nécessaire. De nombreuses méthodes analytiques sont proposées dans la littérature scientifique pour recenser ces composés dans plusieurs types de matrice. Cependant, peu de ces méthodes permettent l’analyse de ces contaminants dans des matrices issues de l’élevage agricole intensif. Par ailleurs, les méthodes analytiques disponibles sont souvent sujettes à des faux positifs compte tenu de la complexité des matrices étudiées et du matériel utilisé et ne prennent souvent pas en compte les métabolites et produits de dégradation. Enfin, les niveaux d’analyse atteints avec ces méthodes ne sont parfois plus à jour étant donné l’évolution de la chimie analytique et de la spectrométrie de masse. Dans cette optique, de nouvelles méthodes d’analyses ont été développées pour rechercher et quantifier les antibiotiques dans des matrices dérivées de l’élevage intensif des porcs en essayant de proposer des approches alternatives sensibles, sélectives et robustes pour quantifier ces molécules. Une première méthode d’analyse basée sur une technique d’introduction d’échantillon alternative à l’aide d’une interface fonctionnant à l’aide d’une désorption thermique par diode laser munie d’une source à ionisation à pression atmosphérique, couplée à la spectrométrie de masse en tandem a été développée. L’objectif est de proposer une analyse plus rapide tout en atteignant des niveaux de concentration adaptés à la matrice étudiée. Cette technique d’analyse couplée à un traitement d’échantillon efficace a permis l’analyse de plusieurs antibiotiques vétérinaires de différentes classes dans des échantillons de lisier avec des temps d’analyse courts. Les limites de détection atteintes sont comprises entre 2,5 et 8,3 µg kg-1 et sont comparables avec celles pouvant être obtenues avec la chromatographie liquide dans une matrice similaire. En vue d’analyser simultanément une série de tétracyclines, une deuxième méthode d’analyse utilisant la chromatographie liquide couplée à la spectrométrie de masse à haute résolution (HRMS) a été proposée. L’utilisation de la HRMS a été motivée par le fait que cette technique d’analyse est moins sensible aux faux positifs que le triple quadripôle traditionnel. Des limites de détection comprises entre 1,5 et 3,6 µg kg-1 ont été atteintes dans des échantillons de lisier en utilisant un mode d’analyse par fragmentation. L’utilisation de méthodes de quantifications ciblées est une démarche intéressante lorsque la présence de contaminants est suspectée dans un échantillon. Toutefois, les contaminants non intégrés à cette méthode d’analyse ciblée ne peuvent être détectés même à de fortes concentrations. Dans ce contexte, une méthode d’analyse non ciblée a été développée pour la recherche de pharmaceutiques vétérinaires dans des effluents agricoles en utilisant la spectrométrie de masse à haute résolution et une cartouche SPE polymérique polyvalente. Cette méthode a permis l’identification d’antibiotiques et de pharmaceutiques couramment utilisés dans l’élevage porcin. La plupart des méthodes d’analyse disponibles dans la littérature se concentrent sur l’analyse des composés parents, mais pas sur les sous-produits de dégradation. L’approche utilisée dans la deuxième méthode d’analyse a donc été étendue et appliquée à d’autres classes d’antibiotiques pour mesurer les concentrations de plusieurs résidus d’antibiotiques dans les sols et les eaux de drainage d’un champ agricole expérimental. Les sols du champ renfermaient un mélange d’antibiotiques ainsi que leurs produits de dégradation relatifs à des concentrations mesurées jusqu’à 1020 µg kg-1. Une partie de ces composés ont voyagé par l’intermédiaire des eaux de drainage du champ ou des concentrations pouvant atteindre 3200 ng L-1 ont pu être relevées.
Resumo:
Cette thèse porte sur le développement de biocapteurs basés sur la technique de résonance des plasmons de surface (SPR) pour effectuer des analyses directement dans un fluide sanguin n’ayant subi aucune purification ou dilution. L’ensemble des biocapteurs discutés exploiteront un instrument SPR portable développé dans le groupe du professeur Masson. Le premier volet de la thèse portera sur le processus d’interférence lié à l’adsorption non spécifique du sérum à la surface du capteur. L’analyse des biomolécules adsorbées sera effectuée en combinant la SPR à la spectrométrie de masse. Les informations obtenues seront exploitées pour la construction de biocapteurs adaptés à l’analyse en milieu sanguin. Un premier biocapteur développé ciblera la protéine antigène prostatique spécifique (APS) contenue dans le sérum servant de biomarqueur pour dépister le cancer de la prostate. Pour détecter les faibles concentrations de cette protéine directement dans le sérum, un matériel plasmonique microstructuré sera utilisé pour amplifier les signaux obtenus et sera recouvert d’une monocouche peptidique minimisant l’adsorption non spécifique du sérum. L’instrument SPR aura été adapté pour permettre également la détection simultanée de fluorescence. Un test ELISA sera ainsi effectué en parallèle du test SPR. Chacune des techniques fournira un contrôle pour la deuxième, tout en permettant de détecter le biomarqueur au niveau requis pour dépister la maladie. La combinaison des deux méthodes permettra aussi d’élargir la gamme dynamique du test de dépistage. Pour terminer, l’instrument SPR portable sera utilisé dans le cadre de détection de petites biomolécules ayant un potentiel thérapeutique directement dans un échantillon de sang. Des peptides ayant une activité anti-athérosclérotique pourront ainsi être détectés à même un échantillon de sang ni purifié ni dilué, et ce à des concentrations de l’ordre du micromolaire. Une modification de la microfluidique via l’introduction d’une membrane poreuse au cœur de celle-ci sera la clé permettant d’effectuer de telles analyses. La présente thèse met de l’avant de nouvelles stratégies et des modifications instrumentales permettant d’analyser des protéines et des petites molécules directement dans un échantillon non purifié de sérum ou de sang. Les modifications apportées au système fluidique, à l’instrument SPR et au niveau du biocapteur employé permettront d’effectuer des biodétections dans des matrices aussi complexes que les fluides sanguins. Les présents travaux mettent en lumière la capacité d’un instrument SPR/fluorescence portable à faire en 12 minutes la biodétection d’un marqueur du cancer de la prostate directement dans un échantillon de sérum. Finalement, on rapporte ici un des premiers articles où un biocapteur SPR est utilisé à même un échantillon de sang non-purifié pour faire des biodétections.
Resumo:
Rapport de stage présenté à la Faculté de médecine en vue de l'obtention du grade de Maître ès sciences appliquées (M.Sc.A.) en génie biomédical, option génie clinique.