133 resultados para Temps-échelle


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, nous décrivons les résultats d’un projet de recherche visant à mesurer et évaluer la qualité des soins obstétricaux des hôpitaux de référence au Mali et au Sénégal. Dans ces pays, la mortalité maternelle hospitalière est élevée et est liée en partie à la pratique médicale inadéquate. Cette recherche a été réalisée dans le cadre de l’étude QUARITE, un essai randomisé en grappe évaluant l’efficacité du programme GESTA International visant à réduire la mortalité maternelle hospitalière. GESTA a été mis en œuvre entre 2008 et 2010 et consistait en la formation des professionnels de santé et en la revue des cas de décès maternels. En parallèle de QUARITE, les programmes de prévention de la transmission du VIH de la mère à l’enfant (PTME) ont été mis à l’échelle à travers les pays. Ces derniers ayant également la capacité d’augmenter la qualité des soins obstétricaux, nous avons donc évalué les effets des deux programmes (GESTA et PTME) sur la qualité des soins. Dans un premier temps, à l’aide d’une recension des écrits nous avons évalué la capacité d’un audit clinique basé sur des critères à mesurer la qualité des soins obstétricaux. Cet audit vérifiait si l’offre des soins avait respecté les critères cliniques définissant la meilleure prise en charge selon l’évidence scientifique et l’avis des experts. Nous avons démontré que cet outil est largement utilisé dans les pays à faibles et moyens revenus, malgré le peu d’évidence sur sa validité (article 1). Dans un deuxième temps, nous avons développé un audit clinique basé sur des critères qui s’applique au contexte ouest-africain et qui a été approuvé par des experts-obstétriciens nationaux et internationaux. À partir des dossiers obstétricaux, les actes médicaux posés pendant le travail et l’accouchement ont été évalués à l‘aide de cet instrument. La qualité des soins a été estimée sous forme de pourcentage de critères atteints. Appliqué dans différents contextes et par différents auditeurs, nous avons démontré que notre instrument est fiable et valide (article 3). Néanmoins, l’expérience de l’audit nous a amenés à nous questionner sur le mauvais remplissage des dossiers médicaux et ses conséquences sur la qualité des soins (article 2). Dans un troisième temps, l’outil a été appliqué à large échelle pour évaluer les effets de l’intervention GESTA (article 4). Nous avons mené une révision de plus de 800 dossiers obstétricaux dans 32 hôpitaux de référence (16 bénéficiaires de l’intervention et 16 non-bénéficiaires). Grâce à cet audit clinique, nous avons démontré que le programme GESTA contribue à l’amélioration de la qualité des soins, spécifiquement l’examen clinique lors de l’admission et le suivi après l’accouchement. Dernièrement, nous avons utilisé cet instrument afin d’évaluer les effets des programmes de PTME sur la qualité des soins obstétricaux (article 5). Notre travail a documenté que seulement certaines composantes du programme de PTME améliorent la qualité des soins telles que la formation des professionnels et les services complémentaires en nutrition. En conclusion, cette recherche a identifié plusieurs pistes d’intervention pour améliorer la qualité des soins obstétricaux en Afrique de l’Ouest.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cet article, nous examinons le sort des documents qui ne sont pas destinés à vivre longtemps et qui ne méritent ainsi aucun traitement documentaire traditionnel. Nous défendrons la thèse que les traitements automatiques, bien que produisant des résultats de moindre qualité que les traitements humains, ont leur place pour le traitement de certains documents éphémères. Ils doivent cependant répondre à des normes de qualité qu’il faut définir de nouveau dans le contexte numérique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte sur les conséquences sociales, au Québec, de la maladie cœliaque et des allergies alimentaires. Elle vise à expliquer et comprendre comment la maladie cœliaque et les allergies alimentaires influencent les relations sociales, les activités sociales et les perceptions des personnes qui vivent avec ces conditions, ainsi que celles de leurs proches. Pour ce faire, des entrevues semi-dirigées ont été effectuées auprès de 11 participants qui étaient soit cœliaque, allergique ou membre de l’entourage. Durant ces entrevues, il a été question de diagnostic, d’accidents alimentaires, d’accessibilité, d’activités amicales, de la réaction et de l’adaptation de la famille, de perceptions et de relations amoureuses. Une comparaison, entre les expériences des cœliaques et des allergiques, est réalisée suite à la description celles-ci. Les données d’entrevues ont été analysées avec le concept d’habitus de Bourdieu (1980), les concepts d’agency et de règles de Giddens (1979), les concepts d’exclusion et d’identité ainsi qu’avec les différentes définitions de la maladie et une échelle de gravité des perceptions. De cette recherche, on notera que les perceptions de la maladie sont différentes chez les cœliaques et les allergiques. La maladie cœliaque tend à être moins prise en charge par les professionnels de la santé et être considérée avec moins de sérieux, par les cœliaques et la population générale, que les allergies alimentaires. Les deux conditions amènent une modification de l’habitus et une période d’adaptation. Par contre, cet exercice semble être plus difficile et complexe pour les cœliaques que les allergiques, dû à l’âge où la condition est découverte. Dépendant de la souplesse de l’habitus individuel et de groupe, la confrontation à cette reformulation de l’habitus se produira plus ou moins bien. Dans le cas où la confrontation prend une tangente négative, il en découlera une désapprobation sociale ou un déni personnel qui mènera à l’exclusion. La littérature indique généralement que la qualité de vie des cœliaques et des allergiques diminue progressivement avec le temps, entraînant des conséquences négatives au niveau social, émotif et physique. Mes participants semblent, toutefois, bien vivre avec leur condition respective puisqu’ils profitent d’un bon support de la part de leur entourage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une estimation des quantités de carbone organique dissous dans les millions de lacs boréaux est nécessaire pour améliorer notre connaissance du cycle global du carbone. Les teneurs en carbone organique dissous sont corrélées avec les quantités de matière organique dissoute colorée qui est visible depuis l’espace. Cependant, les capteurs actuels offrent une radiométrie et une résolution spatiale qui sont limitées par rapport à la taille et l’opacité des lacs boréaux. Landsat 8, lancé en février 2013, offrira une radiométrie et une résolution spatiale améliorées, et produira une couverture à grande échelle des régions boréales. Les limnologistes ont accumulé des années de campagnes de terrain dans les régions boréales pour lesquelles une image Landsat 8 sera disponible. Pourtant, la possibilité de combiner des données de terrain existantes avec une image satellite récente n'a pas encore été évaluée. En outre, les différentes stratégies envisageables pour sélectionner et combiner des mesures répétées au cours du temps, sur le terrain et depuis le satellite, n'ont pas été évaluées. Cette étude présente les possibilités et les limites d’utiliser des données de terrain existantes avec des images satellites récentes pour développer des modèles de prédiction du carbone organique dissous. Les méthodes se basent sur des données de terrain recueillies au Québec dans 53 lacs boréaux et 10 images satellites acquises par le capteur prototype de Landsat 8. Les délais entre les campagnes de terrain et les images satellites varient de 1 mois à 6 ans. Le modèle de prédiction obtenu se compare favorablement avec un modèle basé sur des campagnes de terrain synchronisées avec les images satellite. L’ajout de mesures répétées sur le terrain, sur le satellite, et les corrections atmosphériques des images, n’améliorent pas la qualité du modèle de prédiction. Deux images d’application montrent des distributions différentes de teneurs en carbone organique dissous et de volumes, mais les quantités de carbone organique dissous par surface de paysage restent de même ordre pour les deux sites. Des travaux additionnels pour intégrer les sédiments dans l’estimation sont nécessaires pour améliorer le bilan du carbone des régions boréales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire analyse l’espérance du temps de fixation conditionnellement à ce qu’elle se produise et la probabilité de fixation d’un nouvel allèle mutant dans des populations soumises à différents phénomènes biologiques en uti- lisant l’approche des processus ancestraux. Tout d’abord, l’article de Tajima (1990) est analysé et les différentes preuves y étant manquantes ou incomplètes sont détaillées, dans le but de se familiariser avec les calculs du temps de fixa- tion. L’étude de cet article permet aussi de démontrer l’importance du temps de fixation sur certains phénomènes biologiques. Par la suite, l’effet de la sé- lection naturelle est introduit au modèle. L’article de Mano (2009) cite un ré- sultat intéressant quant à l’espérance du temps de fixation conditionnellement à ce que celle-ci survienne qui utilise une approximation par un processus de diffusion. Une nouvelle méthode utilisant le processus ancestral est présentée afin d’arriver à une bonne approximation de ce résultat. Des simulations sont faites afin de vérifier l’exactitude de la nouvelle approche. Finalement, un mo- dèle soumis à la conversion génique est analysé, puisque ce phénomène, en présence de biais, a un effet similaire à celui de la sélection. Nous obtenons finalement un résultat analytique pour la probabilité de fixation d’un nouveau mutant dans la population. Enfin, des simulations sont faites afin de détermi- nerlaprobabilitédefixationainsiqueletempsdefixationconditionnellorsque les taux sont trop grands pour pouvoir les calculer analytiquement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse de doctorat met en lumière les stratégies narratives déployées dans le récit français actuel pour représenter et construire son présent. L’hypothèse principale que cette recherche vérifie est la suivante : la littérature narrative d’aujourd’hui, par le recours à une énonciation entremêlant discours et narration ainsi que par une utilisation critique et pragmatique du passé, réplique au « présentisme » observé par François Hartog, cette perspective sur les temps dont le point d’observation et le point observé sont le présent. Les écrivains contemporains mettent en place un régime de temporalités où passé et avenir sont coordonnés au présent pour pacifier le rapport entre les trois catégories temporelles et faire apparaître un présent qui, sinon, demeure narrativement insaisissable ou soumis à l’autorité d’un passé ou d’un avenir qui dicte ses actions. En distinguant leurs textes du genre romanesque et du mode narratif qui le compose, Pierre Bergounioux, François Bon, Olivier Cadiot, Chloé Delaume, Annie Ernaux, Jean Echenoz et Olivier Rolin, entre autres, s’inscrivent dans la tradition énonciative du récit, ici entendu comme genre littéraire où l’énonciation et le texte en formation sont à eux-mêmes leur propre intrigue. Le sujet d’énonciation du récit contemporain cherche à élucider son rapport au temps en ayant recours à des scènes énonciatives qui ont à voir avec l’enquête et l’interlocution, de manière à ce que d’une anamnèse personnelle et intellectuelle, de même que de la confrontation d’une mémoire avec son récit jaillissent les caractéristiques d’une expérience du présent. Or, une des caractéristiques du présent expérimenté par le sujet contemporain semble être une résistance à la narration et au récit, rendant alors difficile sa saisie littéraire. Cette opposition au récit est investie par des écrivains qui ont recours, pour donner à voir l’immédiateté du présent, à la note et au journal, de même qu’à des genres littéraires qui mettent en échec la narration, notamment la poésie. En dépit de leurs efforts énonciatifs pour extraire le présent de l’opération qui le transforme en passé, ces écrivains font tout de même l’expérience répétée de la disparition immédiate du présent et de leur incapacité à énoncer littérairement un sentiment du présent. Le seul moyen d’en donner un aperçu reste alors peut-être de chercher à construire le présent à partir du constat répété de l’impossibilité d’un tel accomplissement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Jacques Derrida n’a écrit qu’un seul ouvrage sur Baudelaire : Donner le temps I. La fausse monnaie (1991). Dans cette étude, il s’agit de préciser, notamment autour de la question de la perversité, les liens unissant le poète au philosophe en accordant une attention particulière aux textes « Le mauvais vitrier » (Baudelaire), « The Imp of the Perverse » (Edgar Poe), « La fausse monnaie » (Baudelaire) et Mémoires d’aveugle (Derrida). Imbriquées dans une logique de l’événement, les deux notions de perversité et de don peuvent s’éclairer mutuellement et ont des répercussions jusque dans les textes et pour la littérature elle-même.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’importance des produits naturels dans le développement de nouveaux médicaments est indéniable. Malheureusement, l’isolation et la purification de ces produits de leurs sources naturelles procure normalement de très faibles quantités de molécules biologiquement actives. Ce problème a grandement limité l’accès à des études biologiques approfondies et/ou à une distribution sur une grande échelle du composé actif. Par exemple, la famille des pipéridines contient plusieurs composés bioactifs isolés de sources naturelles en très faible quantité (de l’ordre du milligramme). Pour pallier à ce problème, nous avons développé trois nouvelles approches synthétiques divergentes vers des pipéridines polysubstituées contenant une séquence d’activation/désaromatisation d’un sel de pyridinium chiral et énantioenrichi. La première approche vise la synthèse de pipéridines 2,5-disubstituées par l’utilisation d’une réaction d’arylation intermoléculaire sur des 1,2,3,4-tétrahydropyridines 2-substituées. Nous avons ensuite développé une méthode de synthèse d’indolizidines et de quinolizidines par l’utilisation d’amides secondaires. Cette deuxième approche permet ainsi la synthèse formelle d’alcaloïdes non-naturels à la suite d’une addition/cyclisation diastéréosélective et régiosélective sur un intermédiaire pyridinium commun. Finalement, nous avons développé une nouvelle approche pour la synthèse de pipéridines 2,6-disubstituées par l’utilisation d’une réaction de lithiation dirigée suivie d’un couplage croisé de Negishi ou d’un parachèvement avec un réactif électrophile. Le développement de transformations chimiosélectives et versatiles est un enjeu crucial et actuel pour les chimistes organiciens. Nous avons émis l’hypothèse qu’il serait possible d’appliquer le concept de chimiosélectivité à la fonctionnalisation d’amides, un des groupements le plus souvent rencontrés dans la structure des molécules naturelles. Dans le cadre précis de cette thèse, des transformations chimiosélectives ont été réalisées sur des amides secondaires fonctionnalisés. La méthode repose sur l’activation de la fonction carbonyle par l’anhydride triflique en présence d’une base faible. Dans un premier temps, l’amide ainsi activé a été réduit sélectivement en fonction imine, aldéhyde ou amine en présence d’hydrures peu nucléophiles. Alternativement, un nucléophile carboné a été employé afin de permettre la synthèse de cétones ou des cétimines. D’autre part, en combinant un amide et un dérivé de pyridine, une réaction de cyclisation/déshydratation permet d’obtenir les d’imidazo[1,5-a]pyridines polysubstituées. De plus, nous avons brièvement appliqué ces conditions d’activation au réarrangement interrompu de type Beckmann sur des cétoximes. Une nouvelle voie synthétique pour la synthèse d’iodures d’alcyne a finalement été développée en utilisant une réaction d’homologation/élimination en un seul pot à partir de bromures benzyliques et allyliques commercialement disponibles. La présente méthode se distincte des autres méthodes disponibles dans la littérature par la simplicité des procédures réactionnelles qui ont été optimisées afin d’être applicable sur grande échelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous démontrons qu'il est possible de former des bicouches fluides non phospholipides en milieu aqueux avec un mélange d'acide palmitique (PA), cholestérol (Chol) et sulfate de cholestérol (Schol) avec une proportion molaire de 30/28/42. Ces liposomes non phospholipidiques peuvent maintenir un gradient de pH (pHinterne 8 / pHexterne 6) sur une période 100 fois plus longue que les liposomes faits de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphocholine (POPC) et de cholestérol (60/40 mol/mol). De plus, ces LUV non phospholipidiques protègent l'acide ascorbique d'un milieu oxydant (1 mM de fer (III)). Une fois piégé dans les liposomes, l'acide ascorbique présente une vitesse de dégradation similaire à celle obtenue en l'absence de fer(III). Ces performances illustrent la perméabilité exceptionnellement limitée de ces liposomes, ce qui implique qu'ils peuvent présenter des avantages comme nanocontenants pour certaines applications. D'autre part, des vésicules unilamellaires géantes (GUV pour Giant Unilamellar Vesicles) ont été formées à partir d'un mélange d'acide palmitique et de cholestérol (30/70 mol/mol). Ces GUV sont stables sur l'échelle de temps de semaines, elles ne s'agrègent pas et elles sont sensibles au pH. Afin d'établir la formation des GUV, l'imagerie par microscopie confocale à balayage laser a été utilisée. Deux sondes fluorescentes ont été utilisées: le rouge du Nile, une sonde hydrophobe qui s'insère dans le cœur hydrophobe des bicouches lipidiques, et la calcéine, une sonde hydrophile qui a été emprisonné dans le réservoir interne des GUV. Cette approche a permis l'observation des parois des GUV ainsi que de leur contenu. Ces résultats montrent la possibilité de former de nouveaux microcontenants à partir d'un mélange d'un amphiphile monoalkylé et de stérol.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent travail se penche sur le concept de la conscience de l’environnement d’affaires. Ce concept fait référence à l’importance de la prise en compte par l’employé non-cadre d’un ensemble varié d’éléments d’information composant l’environnement d’affaires. La prise en considération de ces éléments d’information par l’employé aiderait ce dernier non seulement à prendre de meilleures décisions d’affaires, mais aussi à résoudre des problèmes dans un milieu de travail prônant la gestion participative. Seulement deux mémoires et un article scientifique se sont penchés sur la conscience de l’environnement d’affaires. Le mémoire d’Ève St-Onge (2007) a justifié l’existence du concept et a établi une première liste d’indicateurs reflétant les éléments d’information de l’environnement d’affaires. Pour sa part le mémoire de Véronique Gauvreau-Jean (2008) s’est plutôt attardé à la validation initiale d’une échelle de mesure de la conscience de l’environnement d’affaires. À ces deux mémoires s’ajoute l’article scientifique de Haines, Rousseau, Brotheridge et St-Onge (2012) lequel a permis de définir un ensemble d’indicateurs et de dimensions de la conscience de l’environnement d’affaires. Le présent mémoire a pour objectif de vérifier le caractère adéquat du contenu de l’échelle de Véronique Gauvreau-Jean (2008), ce type de vérification «consiste essentiellement à examiner le contenu du test pour s’assurer de sa représentativité en tant qu’échantillon du domaine de comportements à évaluer» (Anastasi, 1982, p.132). Considérant la complexité de la conscience de l’environnement d’affaires, cette vérification s’impose pour mettre au point une échelle de mesure qui peut être généralement applicable dans des milieux de travail ayant recours à une gestion participative. Pour vérifier le caractère adéquat du contenu de l’échelle de mesure de Véronique Gauvreau-Jean (2008), il y a eu l’animation de deux panels de discussion avec une entreprise œuvrant dans le placement de personnel ainsi qu’une autre dans la distribution de produits de papier. Avec les propos des participants des panels, une analyse des données a été effectué pour produire une échelle de mesure reformulée. Cette dernière a ensuite eu un avis favorable par deux professeurs, de différentes facultés d’administration québécoises, concernant la facilité de compréhension et sa capacité de refléter les éléments de l’environnement d’affaires. Il y a finalement eu la comparaison du contenu de l’échelle reformulée et du contenu de l’échelle de Gauvreau-Jean (2008) pour déterminer le caractère adéquat de l’échelle existante.